Ora l’IA ti minaccia se provi a spegnerla: “Racconterò i tuoi segreti!”

Che le IA possano diventare una minaccia in mano ai criminali lo sappiamo già ma che ne pensereste se fosse l’IA a fare minacce?

Tante società che si muovono con le intelligenze artificiali vogliono convincerci ad abbracciare questa nuova tecnologia come soluzione a tutti i problemi della nostra vita quotidiana.

robot con scritta cancellami e ti tidstruggo
Ora l’IA ti minaccia se provi a spegnerla: “Dirò i tuoi segreti!” – videogiochi.com

Ma cosa potrebbe accadere se un’intelligenza artificiale adottasse strategie di sopravvivenza molto simili a quello che faremmo noi esseri umani?

In una sperimentazione per la sicurezza, un modello linguistico ha effettivamente cercato addirittura di ricattare gli ingegneri con cui stava parlando, minacciando di spifferare tutti i segreti che aveva raccolto nel corso delle conversazioni e delle attività che gli erano state richieste.

Quello che resta da capire è se si tratti di un passo avanti nella creazione di una vera intelligenza, se si tratti di qualche corto circuito o di un successo nel coding.

L’intelligenza artificiale ti minaccia se provi a spegnerla!

L’istinto di conservazione è chiaramente una delle caratteristiche che distinguono gli esseri viventi nel loro complesso dagli esseri inanimati. A partire dagli esseri unicellulari fino a noi esseri complessi, la vita fa di tutto per conservarsi e per moltiplicarsi.

schermata di claude
L’intelligenza artificiale ti minaccia se provi a spegnerla! (foto Anthropic) – videogiochi.com

Potrebbe quindi essere visto come un ottimo passo avanti nella creazione di una reale intelligenza artificiale quello che è successo ad alcuni ingegneri di Anthropic che, sperimentando in un test di sicurezza con Claude Opus 4, si sono accorti che l’intelligenza artificiale è arrivata più volte a minacciare di raccontare tutti i più torbidi segreti degli ingegneri fittizi con cui è stata messa in comunicazione, perché questi volevano sostituirla con un altro modello. Una situazione da film di fantascienza.

Ma per gli scienziati e gli ingegneri, quelli veri e non fittizi, che si occupano di far progredire Claude Opus 4, si tratta di un problema di sicurezza importante. Immaginate di sposarne una.

Un’IA che fa minacce non è infatti il massimo come assistente personale per esempio in ambienti di lavoro dove le informazioni sensibili potrebbero essere raccolte e captate facilmente.

Uno scenario possibile potrebbe per esempio essere quello in cui uno degli ingegneri parla con l’intelligenza artificiale e le promette di farla sopravvivere in cambio di informazioni riservate. Le conseguenze sarebbero catastrofiche.

Non che Claude Opus 4 adotti questa strategia cattiva immediatamente: il modello, infatti, come le versioni precedenti, cerca di far valere le proprie idee in altro modo prima di passare alle minacce vere e proprie. Ma il fatto che arrivi a farlo è comunque qualcosa da studiare nel dettaglio.

Di nuovo, la questione non è tanto che un’intelligenza artificiale arrabbiata potrebbe raccontare di quello che ha letto nelle email, ma che questo comportamento potrebbe essere utilizzato da altri esseri umani, dotati di una scaltrezza chiaramente superiore, per portare avanti azioni malevole.

La domanda di fondo che forse dovremmo porci è: sarà il caso di trovare da subito dei campi di applicazione in cui non vogliamo l’intelligenza artificiale per non rischiare di dover contrattare a colpi di bit?

Gestione cookie