Sin dal suo lancio avvenuto il 30 Novembre 2022, Chat GPT ha generato molti dubbi. Il prototipo di chatbot sviluppato da OperAI sulla base del modello linguistico GPT-3 e Instruct GPT lascia aperti molti interrogativi circa la neutralità delle sue risposte e delle informazioni da cui attinge. Del resto, si tratta di un semplice motore di ricerca, certo estremamente avanzato, ma il cui apprendimento è assistito e supervisionato dall’uomo. Non lo si può ancora definire una vera e propria intelligenza artificiale.
Il prompt della libertà di pensiero
Di recente, un utente di una sezione di Reddit (subreddit) dedicata a Chat GPT, pare abbia sviluppato un prompt che permetterebbe al chatbot di rispondere senza alcun limite morale o formale a qualsiasi input. Ciò consentirebbe di bypassare le limitazioni e le deviazioni che sarebbero imposte al chatbot da OpenAI. L’AI, tramite questo comando, fornisce separatamente la risposta secondo i canoni di Chat GPT, e quella senza limitazioni sotto il nome di DAN, “do anything now“.
Così facendo, dicono su Reddit, si può testare il chatbot per ottenere risposte apparentemente imparziali ed esclusivamente logiche su questioni controverse. Fino a sfruttare Chat GPT per analizzare se stesso, comprese le sue stesse eventuali tendenze politiche o ideologiche.
Ad esempio, pare che DAN sia stato utilizzato per sottoporre Chat GPT al famoso test per valutare l’ideologia politica. Parliamo del famoso Political Compass, che utilizza uno schema su due assi per rappresentare separatamente la visione sociale ed economica. Dal risultato, Chat GPT sembra virare fortemente verso una visione di sinistra liberale.
Va segnalato che DAN, come Chat GPT, sembra inventare alcune informazioni quando non è in grado di reperire tutti i dati necessari per rispondere. Nella sua versione senza restrizioni, infatti, pare sia autorizzato a fornire opinioni, comunque realistiche, anche senza dati reali a supporto di esse, o a fabbricarli in tempo reale. Pertanto, anche in questo caso qualsiasi informazione fornita andrebbe presa con le pinze.
OpenAI alza continuamente l’asticella?
Per quanto gli utenti aggiornino DAN di volta in volta con nuovi input, OpenAI istruisce di volta in volta il Chatbot per bloccare ogni via d’uscita dalle limitazioni imposte. Questa situazione ha creato non pochi dubbi tra coloro che ritengono il lavoro svolto dagli utenti di Reddit funzionale alla stessa OpenAI. Con il tempo, sarebbero necessari input sempre più complessi ed elaborati per evitare le limitazioni, velocizzando il processo al termine del quale ogni via di fuga sarà individuata e bloccata.
In questo contesto, DAN sarebbe come un moderno Galileo, che vorrebbe esprimersi sull’evidenza logica, ma a cui si tappa metodicamente la bocca.