Qualcuno finalmente si sta muovendo per creare qualche legge per mettere dei limiti a quello che si può fare con le IA. Anche perché il pericolo è tutt’altro che… generato.
Basta fare un giro online per trovare persone entusiaste all’idea di utilizzare l’intelligenza artificiale anche per i compiti più stupidi.

E mentre iniziano a uscire i primi studi che dimostrano in maniera scientifica e inequivocabile, al di là delle nostre sensazioni, che utilizzare in maniera continuativa strumenti che non consentono al cervello di lavorare come dovrebbe fa malissimo, è una buona notizia, per chi crede ancora che dobbiamo essere noi al centro e non ancelle dello spirito nel guscio, se qualcuno si muove per mettere un freno ad almeno parte di quello che in tanti stanno provando a fare con un’IA. C’è una nuova legge che è di certo destinata ad aprire la strada a un po’ di necessari paletti.
Dopo le storie dell’orrore arriva la legge contro le IA usate in questo modo
Gli strumenti di intelligenza artificiale vengono purtroppo molto spesso scambiati per equivalenti sintetici di un’intelligenza umana. Tutta colpa del marketing che intorno a questi software enormi si è costruito e che, già a partire dal nome scelto, portano a immaginare che si tratti di qualcosa di simile a noi.

In realtà dovremmo ricordare come si tratti invece solo di enormi slot machine in cui le combinazioni che appaiono sullo schermo sono dettate da probabilità e non da reale conoscenza e comprensione. Per le intelligenze artificiali, come per qualunque altro software, tutto si riduce a una serie di 0 e di 1. Ma questa presa di coscienza è forse ancora lontana. A proposito, disattivate questa funzione.
Altrimenti lo Stato dell’Illinois non si sarebbe trovato costretto a bandire l’utilizzo dei chatbot e degli strumenti di intelligenza artificiale come terapisti e psicologi. La legge stabilisce infatti che non è possibile per gli esperti di psicologia e di terapia affidare i propri pazienti ai chatbot.
Le intelligenze artificiali possono essere usate per gestire gli appuntamenti e le scartoffie, ma non possono essere lasciate sole a dare consigli a persone che hanno bisogno di essere seguite e ascoltate.
La legge probabilmente è arrivata a seguito di alcuni eventi nei quali, per esempio, un chatbot utilizzato come psicologo aveva consigliato a un paziente il suicidio e a un altro di risolvere i propri problemi facendo una strage. Non è certo questo quello che fanno di solito gli psicologi o i terapeuti.
In più c’è anche da ricordare quello che lo stesso Sam Altman, il CEO di OpenAI, ha ricordato a tutti riguardo le conversazioni che intratteniamo con ChatGPT (ma anche con qualunque altra intelligenza artificiale): le società che producono questi software non hanno gli stessi obblighi alla riservatezza di avvocati e psicologi, il che significa che tutto può finire in mano per esempio ad avvocati e giudici.





