banner
Centro notizie
Input eccellenti, rigorosa garanzia di qualità.

ChatGPT può distruggere l'umanità se non capisce il mondo?

Oct 15, 2023

Alle tanto discusse allucinazioni dei Large Language Models (LLM), alla loro instabilità e mancanza di interpretabilità, possiamo ora aggiungere la loro vulnerabilità agli attacchi avversari automatizzati che li costringono a produrre contenuti dannosi. Ma questi sono l’ultimo dei loro punti deboli. La profondità della loro comprensione del mondo umano è un ostacolo molto più importante da superare per i LLM prima di diventare “superintelligenza”.

Secondo il creatore di ChatGPT, OpenAI, questa “tecnologia di maggior impatto che l’umanità abbia mai inventato” potrebbe “arrivare in questo decennio” e potrebbe “portare all’estinzione umana”.

Segno di chatbot per il concetto di servizio di supporto.

Abbiamo già sentito anni fa che l’intelligenza artificiale di tipo umano è proprio dietro l’angolo. All'epoca in cui Terry Winograd entrò alla scuola di specializzazione alla fine degli anni '60, la maggior parte [degli esseri umani intelligenti e competenti] "credeva che non sarebbe passato molto tempo prima che le macchine vedessero, sentissero, parlassero, si muovessero e svolgessero in altro modo compiti simili a quelli umani", scrisse John Markoff. in Macchine della grazia amorevole.

Per la sua tesi di dottorato al MIT, Winograd ha sviluppato SHRDLU, un programma per computer in grado di partecipare a conversazioni su un mondo inventato, un “micromondo” composto da blocchi giocattolo e una “pinza” per spostarli. Rispondeva ai comandi in inglese per manipolare i blocchi utilizzando la sua pinza e “capiva” le domande sullo stato del suo mondo.

Nella sua storia dell'intelligenza artificiale, Nils Nilsson afferma che le prestazioni impressionanti di SHRDLU hanno reso alcuni ricercatori di PNL "ottimisti riguardo al successo futuro". Ma “Winograd abbandonò presto questa linea di ricerca per perseguire un lavoro dedicato all’interazione tra computer e persone. Forse perché aveva un’esperienza diretta di quanta conoscenza fosse necessaria per comprendere con successo il linguaggio in qualcosa di così semplice come il mondo dei blocchi, disperava di riuscire mai a fornire ai computer una conoscenza sufficiente per duplicare l’intera gamma delle competenze verbali umane.

Successivamente, nel 2006, Winograd vide nella comprensione statistica del linguaggio, nelle reti neurali e nell’apprendimento automatico nuovi sviluppi che spostavano il campo dell’intelligenza artificiale nella direzione del suo approccio preferito all’interazione uomo-computer. “La prova e l’errore illuminati superano la pianificazione dell’intelletto impeccabile” è al centro di questo approccio, ha scritto, riconoscendo “i limiti della conoscenza e della modellazione delle complessità del mondo umano reale”.

Ulteriori trionfi dell’approccio di analisi statistica all’intelligenza artificiale, in particolare nel campo dell’identificazione delle immagini nel 2012, hanno fatto credere agli esseri umani più intelligenti e competenti che l’intelligenza artificiale simile a quella umana o addirittura la “superintelligenza” sia, ancora una volta, proprio dietro l’angolo.

La maggior parte, ma non tutti. Uno strumento popolare utilizzato da coloro che mettevano in dubbio l’intelligenza della nuova intelligenza artificiale divenne noto come Winograd Schema Challenge. Questo è stato il frutto di un'idea del 2010 di Hector Levesque presso l'Università di Toronto, sulla base di un esempio di ambiguità semantica menzionato in "Understanding Natural Language" di Winograd del 1972. Per superare i limiti del “Test di Turing”, Levesque ha suggerito un test a scelta multipla che richiede la corretta risoluzione di un pronome ambiguo in un’affermazione. Per esempio,

Il trofeo non entra nella valigia marrone perché è troppo grande. Cosa è troppo grande?

R. Il trofeo

B. La valigia

“La sfida ha suscitato un discreto interesse favorevole sia da parte della comunità di ricerca che della stampa scientifica popolare. La naturalezza del problema lo rendeva giusto per i sistemi di intelligenza artificiale; la complessità delle inferenze coinvolte sembrava collocarla ben oltre la portata di quella che allora era la tecnologia attuale”, hanno scritto gli autori di “The Defeat of the Winograd Schema Challenge” (gennaio 2023).

Infatti, alla “prima e ultima esecuzione della Winograd Schema Challenge” avvenuta nel 2016, il maggior successo dei sei programmi di intelligenza artificiale che vi hanno partecipato ha ottenuto un punteggio del 58% sulla raccolta di test, solo leggermente migliore del caso. Alla conferenza inaugurale di O'Reilly sull'intelligenza artificiale dello stesso anno, mentre alcuni parlavano di auto senza conducente "superumane" che sono proprio dietro l'angolo, altri, incluso il pioniere del deep learning Yann LeCun, menzionavano lo schema Winograd come una sfida irrisolta nel testare l'intelligenza artificiale. la conoscenza della macchina su come funziona il mondo.