Ven. Gen 16th, 2026
A row of rubber ducks. Some developers say AI is best used as a way to talk through coding problems, a technique they call rubber ducking (after their habit of talking to the toys on their desk)

Rimani informato con aggiornamenti gratuiti

Un nuovo modello Openai è arrivato questo mese con un Livestream lucido, feste di guardia di gruppo e un persistente senso di delusione. La sezione commenti di YouTube è stata delusa. “Penso che tutti stiano iniziando a rendersi conto che questo non cambierà il mondo come pensavano”, ha scritto uno spettatore. “Posso vederlo sui loro volti.” Ma se l'utente occasionale non era impressionato, la grazia salvifica del modello AI potrebbe essere un codice.

La codifica è il nuovo campo di battaglia generativo di AI. Con grandi fatture da pagare, alte valutazioni da vivere e un mercato per cancellare, il settore deve dimostrare le sue braciole di produttività aziendale. La codifica è promossa ad alta voce come un caso d'uso aziendale che già funziona.

Per prima cosa, il codice generato dall'intelligenza artificiale mantiene la promessa di sostituire i programmatori, una professione di persone molto ben pagate. Per un altro, il lavoro può essere quantificato. Ad aprile, l'amministratore delegato di Microsoft Satya Nadella ha dichiarato che fino al 30 % del codice dell'azienda era ora scritto dall'IA. L'amministratore delegato di Google Sundar Pichai ha detto la stessa cosa. Salesforce ha messo in pausa le assunzioni di ingegneria e Mark Zuckerberg ha detto a Podcaster Joe Rogan che Meta avrebbe usato l'IA come “ingegnere di livello medio” scrive codice.

Nel frattempo, start-up come Replit e Cursor's Anysphere stanno cercando di convincere le persone che con AI, chiunque può codificare. In teoria, ogni dipendente può diventare un ingegnere del software.

Allora perché non siamo? Una possibilità è che non sia ancora troppo sconosciuto. Ma quando chiedo alle persone che scrivono codice per vivere offrono un suggerimento alternativo: imprevedibilità. Come ha detto il programmatore Simon Willison: “A molte persone manca quanto sia strano e divertente questo spazio. Sono un programmatore di computer per 30 anni e sono [AI models] Non comportarti come i normali computer. ”

Willison è ben noto nella comunità di ingegneria del software per i suoi esperimenti di intelligenza artificiale. È un atmosfera entusiasta: che utilizza LLM per generare codice utilizzando istruzioni in linguaggio naturale. L'ultimo modello GPT-5 di Openai è, dice, il suo nuovo preferito. Tuttavia, prevede che un crash di codifica dell'atmosfera è dovuto se viene utilizzato per produrre software glitch.

Ha senso che i programmatori – persone interessate a trovare nuovi modi per risolvere i problemi – sarebbero i primi ad adottare gli LLM. Il codice è una lingua, sebbene astratto. E l'intelligenza artificiale generativa è addestrata in quasi tutti, compresi quelli più vecchi come Cobol.

Ciò non significa che accettano tutti i suoi suggerimenti. Willison pensa che il modo migliore per vedere cosa può fare un nuovo modello è chiedere qualcosa di insolito. Gli piace richiedere un SVG (un'immagine fatta di righe descritte con codice) di un pelicano su una bici e gli chiede di ricordare le galline nel suo giardino per nome. I risultati possono essere bizzarri. Un modello ha ignorato i suoi suggerimenti a favore di comporre una poesia.

Tuttavia, le sue avventure nella codifica vibrante sembrano una pubblicità per il settore. Ha usato il codice Claude di Antropico, il modello preferito per gli sviluppatori, per creare uno strumento OCR (Acronimi di riconoscimento del personaggio ottico – Software Loves Acronys) che copierà e incolla il testo da uno screenshot. Ha scritto software che sintetizza i commenti del blog e ha in programma di creare uno strumento personalizzato che lo avviserà quando una balena è visibile dalla sua casa della Costa del Pacifico. Tutto questo digitando istruzioni in inglese. Sembra che il genere di cose che Bill Gates avrebbe potuto avere in mente quando ha scritto che gli agenti di AI in linguaggio naturale avrebbero portato a “La più grande rivoluzione nel calcolo Da quando siamo passati dai comandi di digitazione a toccare le icone ”.

Ma guardare il codice apparire e sapere come funziona sono due cose diverse. I miei sforzi per rendere il mio strumento di riepilogo dei commenti ha prodotto qualcosa di impossibile che ha dato risposte troppo lunghe e poi si sono congratulati come un successo.

Willison afferma che non avrebbe usato il codice generato dall'IA per i progetti che aveva pianificato di spedire a meno che non avesse rivisto ogni riga. Non solo esiste il rischio di allucinazione, ma il desiderio del chatbot di essere piacevole significa che può dire che un'idea inutilizzabile funziona. Questo è un problema particolare per quelli di noi che non sanno come modificare il codice. Rischiamo di creare software con problemi integrati.

Potrebbe non risparmiare nemmeno tempo. Uno studio pubblicato a luglio dalla valutazione del modello senza scopo di lucro e dalla ricerca sulle minacce ha valutato il lavoro svolto da 16 sviluppatori-alcuni con strumenti di intelligenza artificiale, alcuni senza. Coloro che usano l'IA hanno ipotizzato che li avessero resi più veloci. In effetti ci sono voluti quasi un quinto più lungo.

Diversi sviluppatori con cui ho parlato hanno detto che l'IA è stato utilizzato al meglio come un modo per parlare attraverso problemi di codifica. È una versione di qualcosa che chiamano Ducking in gomma (dopo la loro abitudine di parlare con i giocattoli sulla loro scrivania) – solo questa anatra di gomma può parlare. Come si dice, il codice non dovrebbe essere giudicato dal volume ma dal successo in ciò che stai cercando di ottenere.

I progressi nella codifica AI sono tangibili. Ma misurare i guadagni di produttività non è così pulito come un semplice calcolo percentuale.

[email protected]