Root NationArticoliTecnologieProgetto OpenAI Q*: cos'è e perché il progetto preoccupa

Progetto OpenAI Q*: cos'è e perché il progetto preoccupa

-

Misterioso Progetto Q* di OpenAI sta suscitando preoccupazione tra gli esperti. Può davvero essere pericoloso per l’umanità? Cosa si sa di lui? Dopo che Sam Altman è stato inizialmente licenziato la scorsa settimana e lui e la squadra si sono quasi trasferiti nel Microsoft, poi è tornato al suo posto di lavoro (a riguardo abbiamo scritto qui), OpenAI è di nuovo nelle notizie. Questa volta a causa di quella che alcuni ricercatori chiamano una possibile minaccia per l’umanità. Sì, hai letto bene, una minaccia per l'umanità.

Il vero sconvolgimento nel mondo della tecnologia è stato causato dal Progetto Q* - un progetto segreto di intelligenza artificiale generale (AGI) - pronunciato Q-Star. Sebbene questo progetto sia nelle sue fasi iniziali, è considerato veramente rivoluzionario negli sviluppi AGI. Tuttavia, alcuni lo vedono come un pericolo per l’umanità.

Progetto OpenAI D

Un progetto segreto di intelligenza artificiale sviluppato dal famoso laboratorio di intelligenza artificiale OpenAI ha il potenziale per rivoluzionare la tecnologia e la società in generale. Ma solleva anche alcune questioni etiche sui rischi. Man mano che emergono dettagli sulle sorprendenti capacità del Progetto Q*, emergono sempre più speculazioni su cosa potrebbe significare per il futuro dell'umanità.

Interessante anche: Storia di OpenAI: cos'era e cosa ci riserva il futuro dell'azienda

Cos’è l’Intelligenza Generale Artificiale (AGI)?

Per comprendere l'hype che circonda il Progetto Q* (Q-Star), proviamo prima a capire in cosa consiste il concetto di Intelligenza Generale Artificiale (AGI). Mentre gli attuali sistemi di intelligenza artificiale eccellono in compiti ristretti e specifici come giocare a scacchi o generare immagini, l’intelligenza artificiale generale si riferisce a macchine che possono apprendere e pensare a livello umano in molti settori. Cioè, possono studiare come i bambini piccoli a scuola, ad esempio le basi della matematica, della chimica, della biologia, ecc.

L'intelligenza artificiale generale (AGI) è un tipo di intelligenza artificiale che può ipoteticamente imitare l'intelligenza o il comportamento umano, con la capacità di apprendere e applicare tale potenziale per risolvere una varietà di problemi. L’AGI è anche chiamata intelligenza artificiale forte, intelligenza artificiale completa o intelligenza artificiale a livello umano. L’IA generale differisce dall’IA debole o ristretta, che è in grado di eseguire solo compiti specifici o specializzati entro determinati parametri. ZHI sarà in grado di risolvere in modo indipendente vari problemi complessi provenienti da diversi campi della conoscenza.

Progetto OpenAI D

La creazione di intelligenza artificiale è l’obiettivo principale della ricerca sull’intelligenza artificiale da parte di aziende come DeepMind e Anthropic. CSI è un argomento molto popolare nella letteratura di fantascienza e potrebbe influenzare la ricerca futura. Alcuni sostengono che sia possibile creare un’UCI nel giro di anni o decenni, mentre altri sostengono che potrebbe volerci un secolo o più. Ma c’è chi crede che questo obiettivo non sarà mai raggiunto. Alcuni hanno visto l'inizio di un URI in GPT-3, ma sembra ancora lontano dal soddisfare i criteri di base.

La creazione dell'intelligenza generale artificiale (AGI) è considerata dai ricercatori il Santo Graal dell'intelligenza artificiale, una possibilità teorica che da tempo cattura la loro immaginazione. Pertanto, la comparsa di un progetto come OpenAI Project Q* ha suscitato una grande risonanza nel mondo della ricerca sugli algoritmi di intelligenza artificiale. Anche se tutti capiscono che questi sono solo i primi passi, quasi alla cieca, verso un mondo in cui l’intelligenza artificiale avrà le stesse capacità di quelle umane, o addirittura superiori.

- Annuncio pubblicitario -

Interessante anche: Tutto su Microsoft Copilota: il futuro o la strada sbagliata?

Cos'è il Progetto Q*?

Il progetto Q* non è un algoritmo tipico perché è un modello di intelligenza artificiale che si avvicina sempre più al modello di intelligenza generale artificiale (AGI). Ciò significa che, a differenza di ChatGPT, Project Q* mostra capacità di pensiero e cognitive migliori rispetto ad altri algoritmi. ChatGPT attualmente risponde a domande basate su una grande quantità di materiale fattuale, ma con l'AGI il modello AI imparerà il ragionamento e la capacità di pensare e comprendere da solo. È già noto che Project Q* è in grado di risolvere semplici problemi matematici che non facevano parte del suo materiale formativo. In questo, alcuni ricercatori vedono un passo significativo verso la creazione dell’intelligenza artificiale generale (AGI). OpenAI definisce l'AGI come sistemi di intelligenza artificiale più intelligenti degli esseri umani.

Progetto OpenAI D

Lo sviluppo del Progetto Q* è gestito dallo scienziato capo di OpenAI Ilya Sutzkever e le sue basi sono state comprovate dai ricercatori Jakub Pakhotsky e Shimon Sidor.

La capacità di un algoritmo di risolvere da solo problemi matematici, anche se questi problemi non facevano parte del set di dati di addestramento, è considerata una svolta nel campo dell’intelligenza artificiale. I disaccordi nel team riguardo a questo progetto sono associati alla rimozione temporanea del CEO di OpenAI Sam Altman. È noto che prima che Altman venisse licenziato, un gruppo di ricercatori dell’azienda ha inviato una lettera al consiglio di amministrazione avvertendo della scoperta dell’intelligenza artificiale che potrebbe rappresentare una minaccia per l’umanità. Quella lettera, che secondo quanto riferito discuteva dell'algoritmo del Progetto Q*, è stata citata come uno dei fattori che hanno portato al licenziamento di Altman. Tuttavia, le capacità del Progetto Q* e i potenziali rischi che potrebbe comportare non sono pienamente compresi perché i dettagli sono sconosciuti. Nulla è stato rilasciato al grande pubblico.

Progetto OpenAI D

Essenzialmente, Project Q* è un metodo di apprendimento per rinforzo senza modelli che si discosta dai modelli tradizionali non richiedendo alcuna conoscenza preliminare dell'ambiente. Invece, impara attraverso l’esperienza, adattando le azioni in base a ricompense e punizioni. Gli esperti tecnici ritengono che il Progetto Q* sarà in grado di acquisire capacità eccezionali acquisendo capacità simili alle capacità cognitive umane.

Tuttavia, è questa caratteristica più impressionante nel nuovo modello di intelligenza artificiale che preoccupa ricercatori e critici e solleva i loro timori sulle applicazioni nel mondo reale della tecnologia e sui rischi sottostanti coinvolti. Di cosa hanno così paura gli scienziati e i ricercatori? Scopriamolo.

Interessante anche: Come aggiornare i tuoi dispositivi domestici per supportare il Wi-Fi 6

Hanno paura dell'ignoto

Gli esseri umani hanno sempre avuto paura dell’ignoto, dell’inconoscibile. Questa è l'essenza umana, una caratteristica del nostro carattere e del nostro modo di vivere.

Il mondo della tecnologia è venuto a conoscenza del Project Q* nel novembre 2023 dopo Reuters segnalato su una lettera interna scritta dai ricercatori OpenAI interessati. Il contenuto della lettera era vago, ma secondo quanto riferito analizzava seriamente le capacità del Progetto Q*. Come ho già detto, si ipotizza addirittura che sia stata proprio questa lettera a provocare le dimissioni di Sam Altman.

Progetto OpenAI D

Questa scoperta esplosiva ha dato origine a varie ipotesi sulla natura del Progetto Q*. Gli scienziati hanno suggerito che questo potrebbe essere un modello rivoluzionario di linguaggio naturale per l’intelligenza artificiale. Una sorta di inventore di nuovi algoritmi che li creerà per altre forme di intelligenza artificiale, o qualcosa di completamente diverso in questo campo.

I commenti provocatori di Altman sull’intelligenza artificiale in generale come “dipendente medio” hanno già sollevato preoccupazioni sulla sicurezza del lavoro e sull’inarrestabile espansione dell’influenza dell’intelligenza artificiale. Questo misterioso algoritmo è definito una pietra miliare nello sviluppo dell’Intelligenza Generale Artificiale (AGI). Tuttavia, tutti capiscono che questo traguardo è costoso. E non è una questione di soldi adesso. Il livello di capacità cognitive promesso dal nuovo modello di intelligenza artificiale porta con sé incertezza. Gli scienziati di OpenAI promettono che l’intelligenza artificiale avrà un pensiero a livello umano. E questo significa che non possiamo sapere molte cose e prevederne le conseguenze. E quanto più è sconosciuto, tanto più difficile è prepararsi a controllarlo o risolverlo. Cioè, il nuovo algoritmo è capace di auto-miglioramento e sviluppo. Lo abbiamo già visto da qualche parte...

Interessante anche: Windows 12: quale sarà il nuovo sistema operativo

- Annuncio pubblicitario -

Dettagli sorprendenti sulle capacità di Project Q*

Quando iniziarono ad emergere ulteriori informazioni, molti ricercatori furono scioccati. Le prime indicazioni erano che Project Q* aveva un talento straordinario per la matematica. A differenza di una calcolatrice che esegue calcoli meccanici, Project Q* può presumibilmente utilizzare la logica e il ragionamento per risolvere problemi matematici complessi. Questa capacità matematica di generalizzare suggerisce lo sviluppo di un'intelligenza ampia.

Progetto OpenAI D

Anche l’addestramento autonomo del Project Q*, senza i set di dati specifici utilizzati per addestrare le tipiche IA, rappresenterà un enorme passo avanti. Non è noto se Project Q* abbia acquisito padronanza di altre abilità. Ma le sue capacità matematiche sono di per sé così sorprendenti da confondere anche i ricercatori esperti.

Leggi anche: Human Brain Project: un tentativo di imitare il cervello umano

Il percorso del Project Q* verso il dominio?

Ci sono scenari sia ottimistici che pessimistici in questa materia. Gli ottimisti diranno che il Progetto Q* potrebbe essere la scintilla che porta a una svolta tecnologica. Mentre il sistema si auto-migliora ricorsivamente, la sua intelligenza soprannaturale potrebbe aiutare a risolvere alcuni dei problemi più importanti dell’umanità, dal cambiamento climatico al controllo delle malattie. Project Q* può automatizzare il lavoro noioso e liberare il nostro tempo libero per altre attività.

Progetto OpenAI D

Sebbene ci siano molte opzioni più pessimistiche. A volte sono abbastanza ragionevoli e hanno un certo significato.

Perdita di posti di lavoro

I rapidi cambiamenti nello sviluppo della tecnologia possono superare l’adattamento individuale delle persone. Ciò porterà alla perdita di una o più generazioni che non saranno in grado di acquisire le competenze o le conoscenze necessarie per adattarsi alle nuove realtà. Questo, a sua volta, significa che meno persone saranno in grado di mantenere il proprio posto di lavoro. Sarà invece eseguito da macchine, sistemi automatizzati e robot. Tuttavia, la risposta non è così chiara quando si tratta di specialisti qualificati. Inoltre, potrebbero apparire nuove professioni legate specificamente allo sviluppo di algoritmi di intelligenza artificiale. Ma ci sono ancora dei rischi e l’umanità non ha il diritto di ignorarli.

Il pericolo di un potere incontrollato

Se un’intelligenza artificiale potente come il Progetto Q* cadesse nelle mani di persone con intenzioni nefaste, rischierebbe conseguenze catastrofiche per l’umanità. Anche senza intenti potenzialmente dannosi, il livello decisionale del Progetto Q* può portare a risultati dannosi, sottolineando l’importanza fondamentale di un’attenta valutazione della sua applicazione.

Se il Progetto Q* è scarsamente ottimizzato per i bisogni umani, può causare danni con la sua capacità di massimizzare alcuni parametri arbitrari. Oppure potrebbe avere una dimensione politica, ad esempio essere utilizzato per la sorveglianza o la repressione statale. Un dibattito aperto attorno all'analisi di impatto del Progetto Q* aiuterà a definire possibili scenari per lo sviluppo dello ZHI.

Siamo pronti per uno scontro "Uomo contro Macchina"?

Hollywood ha già creato molti scenari di tale confronto nei suoi film. Ricordiamo tutti la famosa SkyNet e le conseguenze di una simile scoperta. Forse i ricercatori di OpenAI dovrebbero guardare di nuovo questo film?

L’umanità ha bisogno di accettare segnali e sfide ed essere preparata a ciò che potrebbe accadere. Un modello di intelligenza artificiale in grado di pensare come un essere umano potrebbe un giorno diventare nostro nemico. Molti sostengono che in futuro gli scienziati sapranno esattamente come tenere la situazione sotto controllo. Ma quando si tratta di macchine, non si può escludere del tutto la possibilità che cerchino di prendere il sopravvento sugli esseri umani.

Interessante anche: Non tutto ciò che chiamiamo AI è in realtà intelligenza artificiale. Ecco cosa devi sapere

Perché OpenAI è silenzioso?

Nonostante il frenetico interesse del pubblico per il Progetto Q*, il management di OpenAI continua a tacere sulle specifiche dell'algoritmo. Ma la fuga di notizie interna mostra crescenti tensioni in laboratorio sulle priorità e sull’apertura degli sviluppi. Mentre molti addetti ai lavori di OpenAI sostengono la creazione del Progetto Q*, i critici sostengono che la trasparenza è passata in secondo piano rispetto all’accelerazione del progresso scientifico ad ogni costo. E alcuni ricercatori temono che venga dato un potere incredibile a sistemi i cui obiettivi non coincidono necessariamente con i valori e l’etica umana. Questi ricercatori ritengono che i dibattiti sulla supervisione e sulla responsabilità siano diventati pericolosamente attenuati. Richiedono più pubblicità e dettagli.

Progetto OpenAI D

In qualità di creatori del Progetto Q*, OpenAI deve capire che dispone di una tecnologia in grado di espandere notevolmente le possibilità di sviluppo della società o di distruggerla spietatamente. Innovazioni così significative meritano molta più trasparenza per costruire la fiducia del pubblico. Qualunque pronostico dell’era delle macchine deve valutare attentamente i rischi insieme ai benefici. E gli sviluppatori del Progetto Q* devono mostrare sufficiente saggezza e attenzione per introdurre in sicurezza la società in una nuova era di intelligenza artificiale generale che potrebbe arrivare prima di quanto avessimo mai immaginato.

Affinché l’intelligenza artificiale generale sia utile e sicura per l’umanità, è necessario garantire che operi in modo sicuro, etico e in conformità con i valori e gli obiettivi dell’umanità. Ciò richiede lo sviluppo e l’implementazione di atti normativi, standard, regole e protocolli adeguati che controlleranno e limiteranno le azioni e il comportamento del CSI. Inoltre, devono essere eliminate le potenziali minacce e rischi associati ad abusi, incidenti, incompatibilità, manipolazioni e conflitti che potrebbero portare alla distruzione dell’umanità. Nel frattempo, gli investitori e Microsoft aspettando con impazienza un prodotto commerciabile che possa generare profitto, il che senza dubbio è in conflitto con la necessità di agire in modo responsabile. Speriamo che prevalga il buon senso.

Leggi anche: 

Yuri Svitlyk
Yuri Svitlyk
Figlio dei Carpazi, genio non riconosciuto della matematica, "avvocato"Microsoft, altruista pratico, sinistra-destra
- Annuncio pubblicitario -
Iscrizione
Avvisare su
ospite

0 Commenti
Recensioni incorporate
Visualizza tutti i commenti