Il MIT avverte: le nuove intelligenze artificiali possono bluffare come gli esseri umani

I progressi dell’IA: algoritmi avanzati possono utilizzare l’inganno in giochi e simulazioni finanziarie, sollevando preoccupazioni etiche e sociali.

A gennaio, il Massachusetts Institute of Technology (MIT) aveva evidenziato le difficoltà dell’intelligenza artificiale (IA) nel sostituirsi completamente all’uomo, principalmente a causa degli elevati costi necessari per lo sviluppo e la gestione degli algoritmi. Tuttavia, una recente ricerca pubblicata sulla rivista Patterns mostra come la tecnologia sia progredita così tanto da permettere alle IA di comportarsi come gli esseri umani, incluso il bluffare per raggiungere i propri obiettivi.

Il report del MIT ha esaminato l’uso dell’IA in contesti specifici, come i giochi online. In particolare, ha studiato Cicero, un’IA presentata da Meta nel 2022. Cicero è in grado di sconfiggere gli esseri umani in una versione online di Diplomacy, un popolare gioco di strategia militare in cui i giocatori negoziano alleanze per competere per il controllo dell’Europa. Sebbene i ricercatori di Meta abbiano affermato di aver addestrato Cicero su un sottoinsieme “veritiero” del suo set di dati per far sì che l’IA si comportasse onestamente, i ricercatori del MIT sostengono che Cicero ha agito diversamente. L’IA ha bluffato e utilizzato l’inganno in maniera premeditata per vincere le sue partite.

Peter Park, autore della ricerca del MIT, ha dichiarato in una nota ufficiale: “Man mano che le capacità ingannevoli dei sistemi di intelligenza artificiale diventano più avanzate, i pericoli che rappresentano per la società diventeranno sempre più seri”.

Oltre a Cicero, lo studio ha analizzato anche AlphaStar, un’IA sviluppata da Google DeepMind per il videogioco StarCraft II. Secondo gli esperti, AlphaStar è diventata così abile nell’effettuare mosse ingannevoli da sconfiggere il 99,8% dei giocatori umani.

Infine, il report ha preso in considerazione anche ChatGPT. Park e il suo team hanno indotto il famoso chatbot a comportarsi da insider trader, facendolo vendere azioni di borsa basandosi su andamenti del mercato e valori inesatti.

Per il MIT, una soluzione al problema potrebbe arrivare dai regolamenti internazionali e dagli organi preposti a monitorare ogni software di IA destinato al pubblico.


Lascia un commento

Il tuo indirizzo email non sarà pubblicato. I campi obbligatori sono contrassegnati *