AI+Bing%2C+Microsoft+ne+limita+l%26%238217%3Buso%3A+il+motivo+lascia+tutti+spiazzati
videogiochicom
/ai-bing-microsoft-ne-limita-luso-il-motivo-lascia-tutti-spiazzati/amp/
Fuorigioco

AI Bing, Microsoft ne limita l’uso: il motivo lascia tutti spiazzati

Pare che troppe domande lo mandino in tilt. E che, a seconda del tono con cui ci si rivolge al sistema ponendo domande e quesiti, possa rispondere con una sintassi prepotente e addirittura offensiva. Per questo motivo, Microsoft tenta di correre ai ripari: da un lato, rivolgendosi direttamente agli utenti e, dall’altro, mettendo mano al chatbot. Scopriamo di che cosa si tratta.

Fonte: Pixabay – VideoGiochi.com

E’ solo di pochi giorni fa la notizia delle risposte definite scorbutiche e maleducate avanzate dal chatbot ChatGPT di OpenAI ad alcuni utenti, “colpevoli” di aver formulato troppe domande. E, secondo quanto trapelato dalle prime dichiarazioni di Microsoft riguardo all’accaduto, di averle formulate con un tono che avrebbe causato le repliche piccate ed offensive da parte del sistema.

Come a dire: se gli richiedi troppe informazioni, va in tilt; e se ti rivolgi al sistema con un tono poco consono, ti risponderà per le rime, o anche peggio. E così Microsoft ed OpenAI corrono ai ripari e, in una nota rilasciata lo scorso 17 Febbraio, annunciano le misure riparatrici che hanno deciso di adottare.

In sostanza si tratta di una limitazione delle conversazioni che ogni utente potrà effettuare con l’intelligenza artificiale. Ogni giorno, i cosiddetti “scambi” (ovvero l’insieme di una domanda da parte dell’utente più una risposta da parte del sistema) potranno essere un massimo di 50, suddivisi in turni da massimo 5 scambi alla volta. In questo modo, l’intelligenza artificiale potrà non andare in tilt e mantenere il suo aplomb.

Le dichiarazioni di Microsoft riguardo all’accaduto e le richieste di feedback agli utenti

Fonte: Pixabay – VideoGiochi.com

Secondo quanto dichiarato ufficialmente da Microsoft, i casi a rischio sarebbero soltanto una contenutissima minoranza rispetto al totale: “Solo l’1% delle conversazioni prosegue per oltre 50 messaggi”, ha riportato il colosso di Redmond tramite il blog ufficiale di Bing.

E, sempre nella nota, si é poi rivolta direttamente agli utenti per suggerire le nuove modalità di utilizzo consentito: “Quando una conversazione avrà raggiunto 5 scambi, ti verrà chiesto di cambiare argomento. Alla fine di ogni sessione, sarà necessario pulire la cronologia per evitare di confondere il modello”.

Infine, la richiesta di continuare a fornire feedback per comprendere in profondità le criticità più significative riscontrate dall’utenza, al fine di proseguire con le implementazioni necessarie a rendere il chatbot sempre più affidabile e stabile. Senza dubbio, comunque, i problemi e le “sorprese” di ChatGPT non finiranno qui.

Gian Lorenzo Lagna

Recent Posts

Questo videogioco sembra il sogno di tutti gli appassionati di dinosauri

I dinosauri possono risultare delle creature affascinanti per molte persone, ora per gli appassionati di…

6 mesi ago

Uno dei migliori videogiochi dell’anno sta per uscire anche su Xbox: la data

Dopo una lunga attesa, anche i possessori di Xbox potranno mettere le mani su uno…

6 mesi ago

Gamer e tappetini per il mouse, la scelta è importante: cosa tenere a mente per non sbagliare

Il tappetino per mouse è un accessorio del computer che permette al mouse di funzionare…

6 mesi ago

Tastiere da gaming, ecco le migliori che permettono di vincere a mani basse

Una buona tastiera da gaming è l’accessorio principale da possedere per ogni videogiocatore che si…

6 mesi ago

Passione retro game, questi sono i dieci videogame che ogni appassionato dovrebbe recuperare

I titoli dei primi anni '90 sono al centro di una ritrovata popolarità e sono…

6 mesi ago

Il creatore delle missioni di Starfield cambia studio: sta lavorando a qualcosa di “malvagio”

Starfield prosegue nel suo percorso nel cuore dei giocatori e delle giocatrici ma uno dei…

6 mesi ago