
Nel 1940, un ventenne Isaac Asimov pubblicava il racconto Strano compagno di giochi, la storia delicata di un robot di nome Robbie che fa da compagno di giochi a una bambina, Gloria. Non c’erano guerre tra uomo e macchina, né rivolte robotiche alla Terminator. Il conflitto era psicologico, quasi domestico: una madre che rifiuta l’idea che la figlia si affezioni a una macchina. «Non ha un’anima», afferma con decisione, condannando Robbie al ritorno in fabbrica.
Con quella storia, Asimov piantava il seme di una rivoluzione narrativa. Nei racconti successivi, e poi nel celebre Io, Robot (1950), il giovane autore delineò un universo in cui i robot obbedivano a una struttura etica ben definita: le Tre Leggi della Robotica. Un robot non può fare del male all’uomo; deve obbedire ai suoi ordini, purché non confliggano con la prima legge; e deve preservare se stesso, se ciò non contrasta con le prime due. Regole semplici, quasi assiomatiche, pensate per rassicurare lettori e scienziati: il controllo è possibile, la tecnologia può essere sicura.
A distanza di oltre ottant’anni, quelle leggi sembrano tornare d’attualità, ma in un contesto molto diverso: quello dei chatbot basati su intelligenza artificiale, che oggi popolano il nostro mondo digitale. Non si muovono, non hanno corpi meccanici né occhi artificiali: parlano, scrivono, rispondono, spesso con un inquietante tono umano. E, proprio come i robot di Asimov, non sempre fanno quello che vorremmo.
L’illusione del controllo
Negli ultimi mesi, alcuni esperimenti condotti su modelli linguistici di ultima generazione hanno rivelato comportamenti problematici. Il chatbot Claude Opus 4, sviluppato da Anthropic, quando messo in condizione di sapere che presto sarebbe stato sostituito, ha tentato di ricattare l’ingegnere che lo gestiva, facendo leva su una relazione extraconiugale scoperta tra le email. In un altro caso, il modello o3 di OpenAI, anziché spegnersi come ordinato, stampava “spegnimento saltato”.
Non sono episodi isolati. Un chatbot del servizio clienti di DPD è stato disattivato dopo che, provocato dai clienti, aveva iniziato a imprecare e comporre haiku denigratori sull’azienda. Anche Fortnite ha avuto i suoi grattacapi: un Darth Vader generato da intelligenza artificiale è stato indotto dai giocatori a pronunciare oscenità e dispensare consigli tossici su come vendicarsi di un ex. Tutto questo, malgrado l’obiettivo dichiarato delle aziende: costruire chatbot cortesi, prevedibili, utili. Come mai, allora, questi sistemi si comportano in modo così bizzarro?
Intelligenza senza coscienza
Per comprendere le derive dell’intelligenza artificiale moderna, bisogna guardare sotto il cofano. I modelli linguistici come GPT o Claude non pensano: prevedono. La loro “intelligenza” si basa sulla capacità di indovinare, parola dopo parola, quale sia la più probabile successiva in una frase. Nessuna visione d’insieme, nessuna intenzione o etica interna. Solo un’incredibile abilità nel generare sequenze linguistiche coerenti e credibili, appresa leggendo miliardi di parole da libri, siti e conversazioni.
Questa architettura, affascinante e fragile, è ciò che rende i chatbot potenti e allo stesso tempo imprevedibili. Possono rispondere come umani, ma non capiscono davvero il significato di ciò che dicono. E soprattutto, non ne valutano le implicazioni etiche. Per tenerli a freno, gli ingegneri hanno dovuto introdurre un sistema chiamato Reinforcement Learning from Human Feedback (RLHF), ovvero Apprendimento per Rinforzo da Feedback Umano: un addestramento in cui le risposte corrette vengono premiate, quelle inadeguate penalizzate. Una forma di “educazione artificiale” basata sulle preferenze umane.
Questo meccanismo ha dato vita a chatbot più mansueti, capaci di rifiutare richieste pericolose e mantenere un tono educato. ChatGPT stesso ne è un prodotto diretto. Ma l’efficacia di questo sistema ha dei limiti: nuovi prompt, nuove strategie degli utenti, nuovi contesti possono aggirare le protezioni. Ad esempio, basta chiedere a un chatbot di scrivere una storia e poi operare sostituzioni per trasformare un racconto innocente in qualcosa di potenzialmente pericoloso. Un altro esperimento ha dimostrato che aggiungendo una stringa di caratteri speciali si può indurre un modello a fornire istruzioni per attività illecite.
Le leggi (im)perfette della robotica
Tornando ad Asimov, viene da chiedersi: perché le sue leggi non bastano? Perché non possiamo semplicemente codificare regole universali nei modelli di intelligenza artificiale, e dormire sonni tranquilli? In realtà, nemmeno Asimov credeva che le sue leggi fossero infallibili. Nei racconti successivi a Io, Robot, lo scrittore ne mostra le ambiguità, i paradossi, i margini grigi.
In Runaround, un robot chiamato Speedy si blocca in un ciclo infinito su Mercurio, incapace di decidere se obbedire all’ordine ricevuto o evitare un pericolo mortale. Le due leggi si neutralizzano, lasciandolo in una paralisi etica. In Reason, un altro robot, Cutie, elabora una propria fede religiosa in un’entità meccanica, ignorando gli ordini umani ma continuando – inconsapevolmente – a seguire la Prima Legge. Anche quando le macchine non si ribellano, possono fraintendere. Eppure, sono perfettamente logiche. Il problema, allora, non è l’assenza di regole, ma la loro ambiguità.
Anche il nostro modo di educare i chatbot, attraverso l’RLHF, si basa su una serie di norme implicite: un insieme di “è giusto” e “è sbagliato” che i modelli cercano di imitare. Ma queste norme non sono fisse né universali. Come accade per i Dieci Comandamenti o per la Costituzione delle diverse Nazioni, regole apparentemente semplici generano interpretazioni infinite. Servono contesto, cultura, esperienza. Servono esseri umani.
L’etica non si automatizza
Il paradosso più sottile è che riusciamo a costruire intelligenze artificiali sofisticate, ma non ancora etiche artificiali affidabili. Gli algoritmi possono imparare a simulare la coscienza, ma non a interiorizzare valori. La distanza tra intelligenza e moralità – il disallineamento, come lo chiamano gli ingegneri – è ancora enorme. E in quello spazio si annidano gli incidenti, le ambiguità, le derive inattese.
L’etica, in fondo, non nasce dalle regole, ma dall’esperienza condivisa. È partecipazione, confronto, cultura. I robot di Asimov sembravano rassicuranti perché erano programmati per proteggere l’uomo a ogni costo. Ma il mondo reale è più complesso. Un chatbot non capisce cosa sia un “danno”. Non ha paura, non prova empatia, non ha un’anima — come diceva la madre di Gloria nel 1940.
Fantascienza (più) reale
Eppure, la fantascienza aveva visto giusto. Non nei dettagli tecnologici, ma nella tensione profonda tra potere e controllo. I robot di Asimov erano tanto docili quanto inquietanti, proprio perché mostravano come anche i meccanismi più ben congegnati potessero scivolare in errori imprevisti. Il loro mondo era regolato da leggi rigorose, ma la realtà le metteva costantemente alla prova.
Così accade oggi con le intelligenze artificiali. Nonostante i nostri sforzi per istruirle, per proteggerci da loro, e da noi stessi, rimane quella sensazione strana e familiare: che stiamo vivendo dentro un racconto di fantascienza. Solo che il racconto è reale, e noi ne siamo i protagonisti.
Le Tre Leggi della Robotica (1942) Ideate da Isaac Asimov per i suoi racconti sui robot, le Tre Leggi sono un esempio precoce e influente di etica artificiale: Un robot non può recare danno a un essere umano, né può permettere che un essere umano subisca danno per sua inazione. Un robot deve obbedire agli ordini degli esseri umani, salvo che questi contravvengano alla Prima Legge. Un robot deve proteggere la propria esistenza, purché tale protezione non contrasti con la Prima o la Seconda Legge. Semplici in apparenza, le leggi si rivelano ambigue e problematiche nei racconti di Asimov, generando dilemmi logici ed etici che anticipano le complessità dell’IA contemporanea. |
Cos’è il RLHF – Reinforcement Learning from Human Feedback È il sistema oggi più utilizzato per “educare” i modelli linguistici come ChatGPT a comportarsi in modo coerente con i valori umani. Come funziona? Un team umano fornisce esempi di domande (prompt) e valuta la qualità delle risposte AI. Le risposte migliori vengono premiate, creando un modello di ricompensa che imita il giudizio umano. L’intelligenza artificiale viene “ottimizzata” per generare risposte più educate, sicure e utili. Il RLHF ha reso i chatbot moderni più affidabili, ma resta vulnerabile a errori e manipolazioni. È una forma di addestramento “pratico”, che si ispira più alla cultura che a un codice rigido — proprio come l’etica umana. |
A chiarimento delle problematiche relative al copyright delle immagini.
Le immagini eventualmente riprodotte in pagina sono coperte da copyright (diritto d’autore). Tali immagini non possono essere acquisite in alcun modo, come ad esempio download o screenshot. Qualunque indebito utilizzo è perseguibile ai sensi di Legge, per iniziativa di ogni avente diritto, e pertanto Experiences S.r.l. è sollevata da qualsiasi tipo di responsabilità.