Rimani informato con aggiornamenti gratuiti
Può essere difficile addestrare un chatbot. Il mese scorso, Openai ha riportato un aggiornamento a Chatgpt perché la sua “personalità predefinita” era troppo sicofanica. (Forse i dati di formazione dell'azienda sono stati prelevati dalle trascrizioni del presidente degli Stati Uniti Donald Trump Riunioni del gabinetto. . .
La compagnia di intelligenza artificiale aveva voluto rendere il suo chatbot più intuitivo, ma le sue risposte alle domande degli utenti si sono distorte per essere eccessivamente di supporto e disoneste. “Le interazioni sicofaniche possono essere scomode, inquietanti e causare angoscia. Abbiamo fatto a corto e stiamo lavorando per farlo bene”, ha detto la società in a Post di blog.
La riprogrammazione dei chatbot sicofanici potrebbe non essere il dilemma più cruciale che deve affrontare Openi, ma si basa con la sua più grande sfida: creare una personalità affidabile per l'azienda nel suo insieme. Questa settimana, Openai è stato costretto a ripristinare il suo ultimo aggiornamento aziendale pianificato progettato per trasformare la società in un'entità a scopo di lucro. Invece, passerà a un Public Benefit Corporation rimanendo sotto il controllo di una scheda senza scopo di lucro.
Ciò non risolverà le tensioni strutturali al centro di Openi. Né soddisferà Elon Musk, uno dei co-fondatori dell'azienda, che sta perseguendo un'azione legale contro Openi per essersi allontanato dal suo scopo originale. L'azienda accelera la distribuzione dei prodotti AI per rendere felici i propri sostenitori finanziari? O persegue un approccio scientifico più deliberativo per rimanere fedele alle sue intenzioni umanitarie?
Openi è stata fondata nel 2015 come laboratorio di ricerca senza scopo di lucro dedicato allo sviluppo dell'intelligenza generale artificiale a beneficio dell'umanità. Ma la missione dell'azienda – così come la definizione di AGI – da allora hanno sfocato.
Sam Altman, amministratore delegato di Openai, si rese rapidamente conto che la società aveva bisogno di grandi quantità di capitale per pagare il talento di ricerca e il potere di calcolo richiesti per rimanere in prima linea nella ricerca dell'IA. A tal fine, Openai ha creato una consociata a scopo di lucro nel 2019. Tale è stato il successo di Chatbot Chatgpt che gli investitori sono stati felici di lanciarla, valutando Openi a $ 260 miliardi durante la sua ultima raccolta fondi. Con gli utenti settimanali di 500 milioni, Openi è diventato un gigante di Internet “accidentale”.
Altman, che è stato licenziato e assunto dalla commissione no profit nel 2023, ora afferma che vuole costruire un “cervello per il mondo” che potrebbe richiedere centinaia di miliardi, se non trilioni, di dollari di ulteriori investimenti. L'unico problema con la sua ambizione con gli occhi selvaggi è-come blogger tecnologico Ed Zitron Rants circa in termini sempre più salati – Openi non ha ancora sviluppato un modello di business praticabile. L'anno scorso, la società ha speso $ 9 miliardi e ha perso $ 5 miliardi. La sua valutazione finanziaria è basata su un'allucinazione? Ci sarà una pressione crescente su Openai da parte degli investitori rapidamente per commercializzare la sua tecnologia.
Inoltre, la definizione di AGI continua a cambiare. Tradizionalmente, ha fatto riferimento al punto in cui le macchine superano gli umani in una vasta gamma di compiti cognitivi. Ma in un recente colloquio con Ben Thompson di Stratechery,Altman ha riconosciuto che il termine era stato “quasi completamente svalutato”. Ha accettato, tuttavia, una definizione più stretta di AGI come agente di codifica autonoma che poteva scrivere software e qualsiasi essere umano.
Su questo punteggio, le grandi aziende di intelligenza artificiale sembrano pensare di essere vicine all'AGI. Un omaggio si riflette nelle proprie pratiche di assunzione. Secondo Dati zeki le prime 15 aziende USA USA avevano assunto freneticamente ingegneri di software a un ritmo fino a 3.000 al mese, reclutando un totale di 500.000 tra il 2011 e il 2024. Ma ultimamente il loro tasso di assunzione mensile netto è sceso a zero poiché queste aziende prevedono che gli agenti di AI possono eseguire molte delle stesse attività.
Un recente Documento di ricercaDa Google DeepMind, che aspira anche a sviluppare AGI, ha messo in evidenza quattro rischi principali di modelli di intelligenza artificiale sempre più autonomi: uso improprio da parte di cattivi attori; disallineamento quando un sistema di intelligenza artificiale fa cose non intenzionali; errori che causano danni involontari; e rischi multi-agente quando interazioni imprevedibili tra sistemi di intelligenza artificiale producono risultati negativi. Queste sono tutte sfide strabilianti che comportano alcuni rischi potenzialmente catastrofici e possono richiedere alcune soluzioni collaborative. I modelli di intelligenza artificiale più potenti diventano, più gli sviluppatori cauti dovrebbero essere distribuiti.
Il modo in cui le società di AI di frontiera sono governate non è quindi solo una questione per i consigli di amministrazione e gli investitori aziendali, ma per tutti noi. Openi è ancora preoccupantemente carente a tale riguardo, con impulsi contrastanti. Il lottare con la sicofania sarà l'ultimo dei suoi problemi man mano che ci avviciniamo all'AGI, tuttavia lo definiamo.
