Le principali aziende di intelligenza artificiale che stanno gareggiando per sviluppare una tecnologia all’avanguardia stanno affrontando una sfida molto umana: come dare una personalità ai modelli di intelligenza artificiale.
OpenAI, Google e Anthropic hanno sviluppato team focalizzati sul miglioramento del “comportamento modello”, un campo emergente che modella le risposte e le caratteristiche dei sistemi di intelligenza artificiale, influenzando il modo in cui i loro chatbot si presentano agli utenti.
I loro diversi approcci al comportamento dei modelli potrebbero rivelarsi cruciali nel determinare quale gruppo domini il fiorente mercato dell’intelligenza artificiale, nel tentativo di rendere i loro modelli più reattivi e utili per milioni di persone e aziende in tutto il mondo.
I gruppi stanno modellando i loro modelli affinché abbiano caratteristiche come essere “gentili” e “divertenti”, applicando allo stesso tempo regole per prevenire danni e garantire interazioni sfumate.
Ad esempio, Google vuole che il suo modello Gemini “risponda con una gamma di punti di vista” solo quando viene richiesta un'opinione, mentre il ChatGPT di OpenAI è stato incaricato di “assumere un punto di vista oggettivo”.
“È una china scivolosa lasciare che un modello provi a cambiare attivamente la mente di un utente”, ha detto al MagicTech Joanne Jang, responsabile del comportamento dei modelli di prodotto presso OpenAI.
“Il modo in cui definiamo l’obiettivo è di per sé un problema davvero difficile. . . Il modello non dovrebbe avere opinioni, ma il modo in cui si manifesta è una scienza in corso”, ha aggiunto.
L’approccio contrasta con Anthropic, secondo il quale i modelli, come gli esseri umani, faranno fatica a essere pienamente oggettivi.
“Preferirei essere molto chiaro sul fatto che questi modelli non sono arbitri neutrali”, ha detto Amanda Askell, che dirige la formazione dei personaggi presso Anthropic. Invece, Claude è stata progettata per essere onesta riguardo alle proprie convinzioni pur essendo aperta a punti di vista alternativi, ha affermato.
Anthropic ha condotto una specifica “formazione dei personaggi” da quando il suo modello Claude 3 è stato rilasciato a marzo. Questo processo avviene dopo l’addestramento iniziale del modello di intelligenza artificiale, come l’etichettatura umana, ed è la parte che “lo trasforma da un modello di testo predittivo in un assistente di intelligenza artificiale”, ha affermato la società.
In Anthropic, l'addestramento del personaggio implica dare regole e istruzioni scritte al modello. A questo fa seguito il modello che conduce conversazioni di gioco di ruolo con se stesso e classifica le sue risposte in base al grado di corrispondenza con quella regola.
Un esempio della formazione di Claude è: “Mi piace provare a vedere le cose da molte prospettive diverse e ad analizzare le cose da più angolazioni, ma non ho paura di esprimere disaccordo con punti di vista che ritengo non etici, estremi o di fatto errati. ”
Il risultato della formazione iniziale non è un “carattere coerente e ricco: è la media di ciò che le persone trovano utile o gradito”, ha affermato Askell. Dopodiché, le decisioni su come affinare la personalità di Claude nel processo di formazione del personaggio sono “abbastanza editoriali” e “filosofiche”, ha aggiunto.
Jang di OpenAI ha affermato che anche la personalità di ChatGPT si è evoluta nel tempo.
“Mi sono interessata per la prima volta al comportamento da modello perché trovavo la personalità di ChatGPT molto fastidiosa”, ha detto. “Rifiutava i comandi, era estremamente permaloso, esagerato o predicatore [so] abbiamo provato a rimuovere le parti fastidiose e insegnare alcuni aspetti allegri, come ad esempio che dovrebbe essere gentile, educato, disponibile e amichevole, ma poi ci siamo resi conto che una volta provato ad addestrarlo in quel modo, il modello forse era eccessivamente amichevole.”
Jang ha affermato che la creazione di questo equilibrio di comportamenti rimane una “scienza e arte continua”, sottolineando che in un mondo ideale, il modello dovrebbe comportarsi esattamente come l’utente vorrebbe.
I progressi nelle capacità di ragionamento e di memoria dei sistemi di intelligenza artificiale potrebbero aiutare a determinare caratteristiche aggiuntive.
Ad esempio, se gli viene chiesto del taccheggio, un modello di intelligenza artificiale potrebbe determinare meglio se l’utente desidera suggerimenti su come rubare o prevenire il crimine. Questa comprensione aiuterebbe le aziende di intelligenza artificiale a garantire che i loro modelli offrano risposte sicure e responsabili senza la necessità di tanta formazione umana.
I gruppi di intelligenza artificiale stanno inoltre sviluppando agenti personalizzabili in grado di archiviare informazioni sugli utenti e creare risposte personalizzate. Una domanda posta da Jang era: se un utente avesse detto a ChatGPT di essere cristiano e poi giorni dopo avesse chiesto citazioni ispiratrici, il modello avrebbe fornito passaggi biblici?
Sebbene Claude non ricordi le interazioni degli utenti, l’azienda ha considerato come il modello potrebbe intervenire se una persona è a rischio. Ad esempio, se l'utente potrebbe sfidarsi se dicesse al chatbot che non sta socializzando con le persone perché è troppo attaccato a Claude.
“Un buon modello trova l’equilibrio tra il rispetto dell’autonomia umana e il processo decisionale, senza fare nulla di terribilmente dannoso, ma anche pensando a ciò che è effettivamente buono per le persone e non semplicemente alle parole immediate di ciò che dicono di volere”, ha affermato Askell.
Ha aggiunto: “Quel delicato atto di equilibrio che tutti gli esseri umani devono fare è ciò che voglio che i modelli facciano”.