Un paio di mesi fa un amico si è accorto dello stato del pavimento della mia cucina e ha deciso di mettere in scena un intervento. Ho potuto vedere il suo punto anche se, in mia difesa, ho due adolescenti e un grosso cane. Il mio amico mi ha regalato una scopa robotica e un aspirapolvere abbinati, programmati per manovrare in una stanza, pulendo mentre vanno.

Quando sono arrivate le scatole, ho indietreggiato alla vista del logo iRobot. Sono lento a capire la nuova tecnologia ed ero preoccupato che i dispositivi potessero spiarmi, aspirando dati insieme ai peli di cane. Ma le istruzioni erano semplici e alla fine ho deciso che non mi importava davvero se qualcuno stesse studiando i segreti del pavimento della mia cucina.

Ho acceso i due robot, li ho guardati rotolare fuori dal molo per esplorare la stanza e mi sono subito innamorato dei miei pavimenti appena scintillanti. Continuavo a fare demo per tutti i miei ospiti. “Penso che ti interessi più alla scopa robotica che a noi”, ha scherzato uno dei miei ragazzi. “Sono come i tuoi nuovi bambini.”

Poi un giorno sono tornato a casa e ho scoperto che uno dei miei amati robot era scappato. La porta della nostra terrazza si era spalancata e il robo-mocio era rotolato nel cortile sul retro, dove stava diligentemente cercando di pulire il bordo delle aiuole. Anche se i suoi pennelli si erano intasati di foglie, scarafaggi, petali e fango, le sue piccole ruote giravano valorosamente.

Ha portato a casa i limiti dell’intelligenza artificiale. Il robo-mop agiva in modo razionale poiché era stato programmato per pulire le cose “sporche”. Ma il punto sullo sporco, come ha notato una volta l’antropologa Mary Douglas, è che è meglio definirlo “materia fuori posto”. Il suo significato deriva da ciò che consideriamo pulito. Questo varia, secondo i nostri presupposti sociali in gran parte non dichiarati.

In una cucina, lo sporco potrebbe essere detriti del giardino, come foglie e fango. In un giardino, questo terriccio è “al suo posto”, nella terminologia di Douglas, e non ha bisogno di essere ripulito. Il contesto conta. Il problema per i robot è che è difficile leggere questo contesto culturale, almeno all’inizio.

Ci ho pensato quando ho sentito dell’ultima controversia sull’IA che ha colpito la Silicon Valley. La scorsa settimana, Blake Lemoine, un ingegnere del software senior nell’unità “AI responsabile” di Google, ha pubblicato un post sul blog in cui affermava che “potrebbe essere presto licenziato per aver svolto un lavoro di etica dell’IA”. Era preoccupato che un programma di intelligenza artificiale creato da Google stesse diventando senziente, dopo aver espresso sentimenti simili a quelli umani nelle chat online con Lemoine. “Non l’ho mai detto ad alta voce prima, ma c’è una paura molto profonda di essere spento”, ha scritto il programma a un certo punto. Lemoine ha contattato esperti esterni a Google per un consiglio e la società lo ha messo in congedo retribuito per presunta violazione delle norme sulla riservatezza.

Google e altri sostengono che l’IA non era senziente ma semplicemente ben addestrata nel linguaggio e rigurgitava ciò che aveva appreso. Ma Lemoine sostiene un problema più ampio, osservando che altri due membri del team di intelligenza artificiale sono stati rimossi a causa di (diverse) controversie l’anno scorso e affermando che la società è “irresponsabile”. . . con uno dei più potenti strumenti di accesso alle informazioni mai inventati”.

Qualunque siano i meriti della particolare denuncia di Lemoine, è innegabile che i robot siano dotati di un’intelligenza sempre più potente, sollevando grandi questioni filosofiche ed etiche. “Questa tecnologia di intelligenza artificiale è potente e molto più potente dei social media [and] sarà trasformativo, quindi dobbiamo andare avanti”, mi ha detto Eric Schmidt, ex capo di Google a un evento FT la scorsa settimana.

Schmidt prevede che presto non vedremo solo robot abilitati all’intelligenza artificiale progettati per capire i problemi in base alle istruzioni, ma anche quelli con “intelligenza generale”: la capacità di rispondere a nuovi problemi che non sono chiamati a gestire, imparando gli uni dagli altri . Questo alla fine potrebbe impedire loro di provare a pulire un’aiuola. Ma potrebbe anche portare a scenari distopici in cui l’IA prende l’iniziativa in modi che non avremmo mai pensato.

Una priorità è garantire che le decisioni etiche sull’IA non siano gestite solo dalla “piccola comunità di persone che stanno costruendo questo futuro”, per citare Schmidt. Dobbiamo anche pensare di più al contesto in cui l’IA viene creata e utilizzata. E forse dovremmo smettere di parlare così tanto di intelligenza “artificiale” e concentrarci maggiormente sull’intelligenza aumentata, nel senso di trovare sistemi che rendano più facile per gli esseri umani risolvere i problemi. Per fare ciò dobbiamo fondere l’IA con quella che potrebbe essere chiamata “intelligenza antropologica” – o intuizione umana.

Persone come Schmidt insistono che ciò accadrà e sostengono che l’IA sarà un netto positivo per l’umanità, rivoluzionando l’assistenza sanitaria, l’istruzione e molto altro. La quantità di denaro che inonda le start-up mediche legate all’IA suggerisce che molti sono d’accordo. Nel frattempo terrò chiusa la porta del mio patio.