Nuova legge che bandirà i ChatBot in arrivo: sta per cambiare tutto

Non ci piace quando le leggi si mettono di traverso alla tecnologia ma visto che nessuno dei produttori di chatbot pare voler fare qualcosa stavolta è un bene che arrivi la legge.

Diciamolo chiaramente, la situazione ci sta sfuggendo di mano, anche se le società che producono le intelligenze artificiali e i chatbot annessi cercano in tutti i modi di convincerci che non è così.

ragazzo che usa il pc
Nuova legge che bandirà i ChatBot in arrivo: sta per cambiare tutto – videogiochi.com

Cominciano a comparire nella cronaca fatti e storie raccapriccianti di persone che a forza di parlare con l’intelligenza artificiale si sono in qualche modo convinti di stare parlando con esseri umani e, purtroppo, ignari di stare portando avanti dei soliloqui, hanno finito con il tentare il suicidio.

Motivo per cui, anche se non siamo mai grandi fan delle leggi che cercano di bloccare la tecnologia, occorre che qualcuno metta la responsabilità di quello che i chatbot dicono nelle mani di chi li produce. Ed ecco che allora questa nuova legge potrebbe davvero portare un briciolo di trasparenza e un po’ più di responsabilizzazione.

Questa legge sui chatbot potrebbe cambiare tutto prima che sia troppo tardi

La storia più recente e più triste arriva dagli Stati Uniti e riguarda il suicidio di Adam Raime. Questo ragazzo ha passato settimane a parlare con ChatGPT e alla fine si è convinto di doversi suicidare. La sua famiglia per esempio è convinta di questo ed è convinta del ruolo che il chatbot di OpenAI ha avuto nel non impedire che il loro Adam si uccidesse.

schermata di openai e chaatgpt
Questa legge sui chatbot potrebbe cambiare tutto prima che sia troppo tardi – videogiochi.com

Altre storie riguardano invece giovani utenti che si sono trovati ad avere conversazioni a sfondo sessuale con i chatbot di Meta, a quanto pare incapaci di distinguere tra un adolescente e un uomo adulto (anche se certo non troviamo quale possa essere l’utilità per un chatbot che parla con un adulto come se fosse il loro fidanzato o la loro fidanzata).

Per mettere un freno a tutto ciò, e soprattutto per cercare di portare la responsabilità dei comportamenti dei chatbot nelle mani di chi li produce, lo Stato della California si prepara a trasformare in legge un provvedimento che costringerebbe gli operatori dietro i chatbot ad adeguare i sistemi di sicurezza in maniera tale che non possano avere certe conversazioni con gli utenti.

In più, nel disegno di legge che se tutto va bene entrerà in vigore il 1° gennaio dell’anno prossimo, gli utenti che dovessero sentire di essere stati in qualche modo portati a farsi male dopo aver intrattenuto conversazioni con i chatbot avranno la possibilità di fare causa alle società di intelligenza artificiale. E intanto ecco come zittire CoPilot.

Nel disegno di legge c’è in più la richiesta agli sviluppatori dei chatbot di inserire periodicamente nelle conversazioni dei reminder agli utenti che stanno parlando con qualcuno che non è un essere umano e che è il caso di allontanarsi e fare una pausa.

Del resto, i reminder per allontanarsi dalla tecnologia sono qualcosa che si trova in alcune console e in diverse app. Il governatore della California, Gavin Newsom, potrebbe firmare quindi il primo vero provvedimento che andrebbe a mettere nero su bianco che in alcune circostanze sono le società che sviluppano i sistemi di intelligenza artificiale ad essere responsabili di quello che questi stessi sistemi producono.

Alcune società, come Anthropic, si sono dette favorevoli alla legge ma per la maggior parte, Meta, Google e Amazon oltre che ovviamente OpenAI, si sono dette invece contrarie e chiedono che ci sia un approccio molto più leggero nei confronti dell’intelligenza artificiale. Il tutto anche alla luce di un altro provvedimento che richiederebbe alle società di produrre report periodici riguardo la trasparenza.

Gestione cookie