Molti studiosi si sono interrogati sui possibili riscontri negativi di avanzate tecnologie di intelligenza artificiale, come nel caso di Q* (pronunciato Q star). Ma di cosa di tratta? Quali sono i pericoli ai quali andiamo incontro a causa del rapporto sempre più stretto con le tecnologie di Intelligenza Artificiale? I progressi in questi ambiti stanno andando avanti in maniera spaventosamente veloce, generando realtà sempre più intelligenti e simili a quelle umane.
Progetto Q* che cos’è?
Il 10 dicembre 2015, Elon Musk e Sam Altman fondano OpenAI (responsabile anche dello sviluppo di ChatGPT), un laboratorio di ricerca non profit che ha lo scopo di studiare lo sviluppo di una tipologia di intelligenza artificiale dalla quale il mondo intero possa trarre in qualche modo beneficio. Questo studio è nato principalmente a causa dei problemi e dei rischi che potrebbero derivare dall’intelligenza artificiale generale (AGI). Quest’ultima aveva inizialmente come scopo quello di provare a replicare totalmente l’intelligenza umana, progetto che poi è stato per qualche tempo abbandonato perché i ricercatori si sono resi conto di quanto fosse complesso poter riproporre ogni singolo processo che avviene nel cervello umano in modo del tutto artificiale.
Al contempo però, alcune aziende, tra cui OpenAI, stanno portando avanti le loro ricerche in questo campo. Sicuramente un tema molto delicato perché, come accennato in precedenza, l’intelligenza artificiale generale (AGI) opererebbe in modo molto simile a quella umana.
Sam Altman, fondatore di OpenAI e braccio destro di Elon Musk, sarebbe stato quindi allontanato per un breve periodo di tempo e poi subito reintegrato nella sua posizione lavorativa, questo dopo che il consiglio d’amministrazione dell’azienda avevo esposto le proprio perplessità circa la possibilità di una precoce commercializzazione di Q* senza averne prima valutato bene tutti i rischi e le conseguenze. Sicuramente questo avvenimento ha portato gli studiosi nel campo dell’intelligenza artificiale a mettersi a lavoro anche per creare una documentazione e regolamentazione per questi sistemi.
OpenAI opera su tre tipologie di intelligenza artificiale che sono l’ANI (Artificiale Narrow Intelligente o Intelligenza artificiale stretta o debole), l’ AGI (Artificial General Intelligence + Intelligenza Artificiale Generale) e l’ASI (Artificial Super Intelligence o Super Intelligenza Artificiale). E’ bene avere ben presenti queste tre categorie perché mentre l’ANI si occupa principalmente di compiti scientifici, l’AGI e la ASI sono tipi di intelligenza artificiale molto più sviluppati. La prima tende ad avvicinarsi il più possibile alle attività cognitive umane (è il caso di Q* star) mentre l’ASI, addirittura, avrebbe lo scopo piuttosto ambizioso di superarle. Ecco quindi il motivo principale per il quale la creazione di Q* ha destato preoccupazione, poiché rappresenta un passo in più verso lo sviluppo di ASI, quindi intelligenze artificiali che supererebbero le capacità umane.
Progetto Q*, quali sono i pericoli?
Come accennato in precedenza, quindi, Sam Altman, dopo la scoperta di Q* è stato allontanato da OpenAI, salvo poi essere reintegrato nella sua posizione dopo le lamentele di alcuni membri del consiglio di amministrazione. Non solo, sembra che alcuni ricercatori interni all’azienda abbiano fatto circolare una lettera che sia poi arrivata al board ufficiale dell’azienda in cui esprimevano proprio tutte le loro perplessità riguardo la potenza di un sistema come Q*. Ciò che ha causato il suo allontanamento è stata proprio la paura scaturita dalle grandi potenzialità di Q* che rappresentano un passo in più verso lo sviluppo di un’intelligenza artificiale sempre più simile a quella umanoide.
Mentre tutte le intelligenze artificiali sviluppate fino a quel momento operavano in modo più semplice basandosi su un modello probabilistico, Q* si è dimostrata molto avanzata perché opera in modo deterministico, riuscendo addirittura a risolvere dei problemi matematici di livello elementare.
Sicuramente, quindi, sono molte le paure legate allo sviluppo di queste nuove tecnologie delle quali sappiamo ancora poco. La ricerca e il loro sviluppo stanno procedendo molto velocemente ed è questo che mette in allerta molti esperti del settore stesso.
L’essere umano non ha mai avuto a che fare con tipologie di intelligenze così, tantomeno con qualche tipo di AGI (Intelligenza Artificiale Generativa) che possa rivelarsi più potente e intelligente della mente umana. Sicuramente le nuove scoperte riguardo l’intelligenza artificiale potranno essere applicate nei campi più disparati, a partire anche dalle ricerche scientifiche. E’ una sfida che sicuramente bisognerà porsi ma allo stesso tempo bisogna capire tutti i rischi legati ad un’intelligenza così potente, della quale forse in futuro potrebbe sfuggirci il controllo. Questa paura giustificata, quindi, servirà come monito per procedere a piccoli passi nell’introduzione di questo tipo di intelligenze nella vita di tutti i giorni e alla loro regolamentazione e controllo totale.