Sab. Gen 25th, 2025
Illustration of a robot made out of brightly wrapped boxes with red ribbons around them

Questo mese, i robot di intelligenza artificiale sono entrati nella grotta di Babbo Natale. Per prima cosa, i regali abilitati all’intelligenza artificiale stanno proliferando – come conosco io stesso, avendo appena ricevuto un impressionante dispositivo di dettatura basato sull’intelligenza artificiale.

Nel frattempo rivenditori come Walmart stanno offrendo strumenti di intelligenza artificiale per fornire agli acquirenti esausti un aiuto durante le vacanze. Considerateli, se volete, come l'equivalente digitale di un elfo personale, che fornisce scorciatoie per fare acquisti e regali. E sembrano funzionare abbastanza bene a giudicare dalle recensioni recenti.

Ma ecco il paradosso: anche se l’intelligenza artificiale si diffonde nelle nostre vite – e nelle calze di Natale – l’ostilità rimane alle stelle. All'inizio di questo mese, ad esempio, a Sondaggio del governo britannico ha scoperto che quattro persone su dieci si aspettano che l’intelligenza artificiale apporti benefici. Tuttavia, tre su dieci prevedono danni significativi, dovuti a violazioni della “sicurezza dei dati”, alla “diffusione della disinformazione” e allo “spostamento di posti di lavoro”.

Questa non è una sorpresa, forse. I rischi sono reali e ben pubblicizzati. Tuttavia, mentre ci avviciniamo al 2025, vale la pena riflettere su tre punti spesso ignorati sull’attuale antropologia dell’IA che potrebbero aiutare a inquadrare questo paradosso in un modo più costruttivo.

Innanzitutto, dobbiamo ripensare quale “A” utilizziamo oggi nell’“AI”. Sì, i sistemi di machine learning sono “artificiali”. Tuttavia, i robot non sempre – o non di solito – sostituiscono il nostro cervello umano, come alternativa alla cognizione in carne ed ossa. Invece, di solito ci consentono di operare più velocemente e di muoverci in modo più efficace attraverso le attività. Lo shopping è solo un esempio calzante.

Quindi forse dovremmo riformulare l’intelligenza artificiale come intelligenza “aumentata” o “accelerata” – oppure intelligenza “agentica”, per usare la parola d’ordine per ciò che un recente blog di Nvidia chiama la “prossima frontiera” dell’intelligenza artificiale. Ciò si riferisce a robot che possono agire come agenti autonomi, eseguendo compiti per gli esseri umani sotto il loro comando. Sarà un tema chiave nel 2025. O come ha dichiarato Google quando ha recentemente presentato il suo ultimo modello di intelligenza artificiale Gemini: “L’era degli agenti dell’intelligenza artificiale è arrivata.”

In secondo luogo, dobbiamo pensare oltre il quadro culturale della Silicon Valley. Finora “attori anglofoni” hanno “dominato il dibattito” sull’intelligenza artificiale sulla scena mondiale, come sostengono gli accademici Stephen Cave e Kanta Dihal nota nell'introduzione al loro libro, Immaginare l'intelligenza artificiale. Ciò riflette il dominio tecnologico degli Stati Uniti.

Tuttavia, altre culture vedono l’intelligenza artificiale in modo leggermente diverso. Gli atteggiamenti nei paesi in via di sviluppo, ad esempio, tendono ad essere molto più positivi che in quelli sviluppati, come afferma James Manyika, co-responsabile di un organo consultivo delle Nazioni Unite sull’intelligenza artificiale e alto funzionario di Google.detto di recente a Chatham House.

Anche paesi come il Giappone sono diversi. In particolare, il pubblico giapponese mostra da tempo sentimenti molto più positivi nei confronti dei robot rispetto ai suoi omologhi anglofoni. E questo si riflette ora anche nell’atteggiamento nei confronti dei sistemi di intelligenza artificiale.

Perché è questo? Un fattore è la carenza di manodopera in Giappone (e il fatto che molti giapponesi siano cauti nel far sì che gli immigrati colmino questo divario, trovando così più facile accettare i robot). Un altro è la cultura popolare. Nella seconda metà del 20° secolo, quando film di Hollywood come Il terminatore O 2001: Odissea nello spazio stavano diffondendo la paura delle macchine intelligenti tra il pubblico anglofono, il pubblico giapponese ne rimase ipnotizzato Astroragazzo saga, che raffigurava i robot sotto una luce benevola.

Il suo creatore, Osamu Tezuka, lo ha precedentemente attribuito all’influenza della religione shintoista, che non traccia confini rigidi tra oggetti animati e inanimati – a differenza delle tradizioni giudeo-cristiane. “I giapponesi non fanno distinzione tra l'uomo, la creatura superiore, e il mondo che lo circonda”, aveva osservato in precedenza. “Accettiamo facilmente i robot insieme al vasto mondo che ci circonda, gli insetti, le rocce: è tutto uno.”

E questo si riflette nel modo in cui aziende come Sony o SoftBank progettano oggi i prodotti AI, uno dei saggi in Immaginare l'intelligenza artificiale note: questi cercano di creare “robot con cuore” in un modo che i consumatori americani potrebbero trovare inquietante.

In terzo luogo, questa variazione culturale mostra che le nostre reazioni all’intelligenza artificiale non devono essere fissate nella pietra, ma possono evolversi, man mano che emergono cambiamenti tecnologici e influenze interculturali. Considera le tecnologie di riconoscimento facciale. Nel 2017, Ken Anderson, un antropologo che lavorava presso Intel, e i suoi colleghi studiato L'atteggiamento dei consumatori cinesi e americani nei confronti degli strumenti di riconoscimento facciale e ha scoperto che mentre i primi accettavano questa tecnologia per le attività quotidiane, come quelle bancarie, i secondi no.

Sembrava che quella distinzione riflettesse le preoccupazioni americane sulle questioni relative alla privacy. Ma lo stesso anno in cui fu pubblicato lo studio, Apple introdusse strumenti di riconoscimento facciale sull’iPhone, che furono rapidamente accettati dai consumatori statunitensi. Gli atteggiamenti sono cambiati. Il punto chiave, quindi, è che le “culture” non sono come le scatole Tupperware, sigillate e statiche. Sono più simili a fiumi lenti con rive fangose, in cui scorrono nuovi corsi d'acqua.

Quindi, qualunque cosa porti il ​​2025, l’unica cosa che si può prevedere è che il nostro atteggiamento nei confronti dell’intelligenza artificiale continuerà a cambiare leggermente man mano che la tecnologia diventerà sempre più normalizzata. Ciò potrebbe allarmare alcuni, ma potrebbe anche aiutarci a riformulare il dibattito tecnologico in modo più costruttivo e a concentrarci sulla garanzia che siano gli esseri umani a controllare i loro “agenti” digitali, e non il contrario. Gli investitori oggi potrebbero lanciarsi nell’intelligenza artificiale, ma devono chiedersi quale “A” vogliono in quel tag AI.

[email protected]