AI Bing, Microsoft ne limita l’uso: il motivo lascia tutti spiazzati

Pare che troppe domande lo mandino in tilt. E che, a seconda del tono con cui ci si rivolge al sistema ponendo domande e quesiti, possa rispondere con una sintassi prepotente e addirittura offensiva. Per questo motivo, Microsoft tenta di correre ai ripari: da un lato, rivolgendosi direttamente agli utenti e, dall’altro, mettendo mano al chatbot. Scopriamo di che cosa si tratta.

ChatGPT Bing Tilt VideoGiochi.com 20 Febbraio 2023
Fonte: Pixabay – VideoGiochi.com

E’ solo di pochi giorni fa la notizia delle risposte definite scorbutiche e maleducate avanzate dal chatbot ChatGPT di OpenAI ad alcuni utenti, “colpevoli” di aver formulato troppe domande. E, secondo quanto trapelato dalle prime dichiarazioni di Microsoft riguardo all’accaduto, di averle formulate con un tono che avrebbe causato le repliche piccate ed offensive da parte del sistema.

Come a dire: se gli richiedi troppe informazioni, va in tilt; e se ti rivolgi al sistema con un tono poco consono, ti risponderà per le rime, o anche peggio. E così Microsoft ed OpenAI corrono ai ripari e, in una nota rilasciata lo scorso 17 Febbraio, annunciano le misure riparatrici che hanno deciso di adottare.

In sostanza si tratta di una limitazione delle conversazioni che ogni utente potrà effettuare con l’intelligenza artificiale. Ogni giorno, i cosiddetti “scambi” (ovvero l’insieme di una domanda da parte dell’utente più una risposta da parte del sistema) potranno essere un massimo di 50, suddivisi in turni da massimo 5 scambi alla volta. In questo modo, l’intelligenza artificiale potrà non andare in tilt e mantenere il suo aplomb.

Le dichiarazioni di Microsoft riguardo all’accaduto e le richieste di feedback agli utenti

OpenAI ChatGPT Bing Tilt VideoGiochi.com 20 Febbraio 2023
Fonte: Pixabay – VideoGiochi.com

Secondo quanto dichiarato ufficialmente da Microsoft, i casi a rischio sarebbero soltanto una contenutissima minoranza rispetto al totale: “Solo l’1% delle conversazioni prosegue per oltre 50 messaggi”, ha riportato il colosso di Redmond tramite il blog ufficiale di Bing.

E, sempre nella nota, si é poi rivolta direttamente agli utenti per suggerire le nuove modalità di utilizzo consentito: “Quando una conversazione avrà raggiunto 5 scambi, ti verrà chiesto di cambiare argomento. Alla fine di ogni sessione, sarà necessario pulire la cronologia per evitare di confondere il modello”.

Infine, la richiesta di continuare a fornire feedback per comprendere in profondità le criticità più significative riscontrate dall’utenza, al fine di proseguire con le implementazioni necessarie a rendere il chatbot sempre più affidabile e stabile. Senza dubbio, comunque, i problemi e le “sorprese” di ChatGPT non finiranno qui.

Impostazioni privacy