Da 50 anni pionieri in intelligenza artificiale e robotica

Entrando nell’austero edificio che reca l’iscrizione “Istituzione Elettrotecnica Carlo Erba” non ce lo saremmo aspettato. Questa grigia cornice racchiude al suo interno un mondo colorato e sonoro, multimediale e tecnologico: quello di AIRLab. Dalle mensole, dalle sedie, dal pavimento e dal soffitto, pupazzi, bidoni, oggetti di diverse specie guardano serafici questi sconosciuti appena entrati.

A farci da guida in quello che può sembrare a prima vista un affascinante magazzino teatrale, ma che in realtà è il laboratorio di Intelligenza Artificiale e Robotica del Politecnico di Milano, è Andrea Bonarini, del Dipartimento di Elettronica, Informazione e Bioingegneria.

Insieme a lui, ripercorreremo i 50 anni del laboratorio, cercando di capire dove ci porterà il futuro.

Professor Bonarini, grazie per averci accolto in AIRLab. Avete da poco festeggiato i cinquant’anni del laboratorio, è vero?

Posso confermare che AIRLab è stato fondato nel 1973. Non è sempre facile recuperare le date giuste, perché il professor Marco Somalvico, indimenticato fondatore di questo luogo e sua memoria storica, è venuto a mancare nel 2002.

È stato uno dei primi gruppi di ricerca sull’intelligenza artificiale e la robotica in Italia. Quindi, sì, possiamo affermare con orgoglio che gli studi sull’intelligenza artificiale al Politecnico di Milano nascono cinquant’anni fa.

L’edificio che ci ospita è storico, e da qualche anno non ospita solo voi di AIRLab…

Infatti, nel 2019 diverse competenze multidisciplinari sulla robotica si sono unite nel POLIMI Leonardo Robotics Labs, in questo spazio di oltre 500mq. I nostri “vicini” sono MERLIN e NEARLab.

Che cosa si fa in AIRLab, nello specifico?

Siamo tra i più longevi gruppi di ricerca in Italia su AI, robotica e intelligenza delle macchine. I nostri ricercatori sono esperti di livello mondiale in molti campi dell’intelligenza artificiale, della robotica autonoma, dell’interazione uomo-robot, della visione artificiale, dell’apprendimento automatico e della filosofia dell’intelligenza artificiale e della robotica. Produciamo sia risultati metodologici, sia soluzioni efficaci per problemi pratici in molti settori diversi.

Ci presenta i vostri robot? Come vengono impiegati?

Quelli che vedete sono in gran parte robot mobili con a bordo una buona quantità di sensori. Perché devono sapere dove vanno, devono avere la situazione sotto controllo. Due sono i campi principali di applicazione: la robotica agricola e quella per ispezione.

Nel primo caso, il loro scopo è rilevare se le piante hanno problemi di vario genere. Si tratta di gestire interventi puntuali su coltivazioni, principalmente vigne, nel quadro di alcuni progetti europei e industriali. Qui fuori dal laboratorio puoi vedere la simulazione della raccolta di mele ad opera di un nostro braccio meccanico montato su un robot mobile. Per questi progetti collaboriamo con la Facoltà di Scienze Agrarie e Alimentari della Statale.

Nel secondo, si tratta per di più di ispezionare delle condotte per andare a rilevare problematiche. L’autolocalizzazione viene fatta con diversi sensori: un gps laser e telecamere. Abbiamo in corso progetti con importanti aziende.

In effetti, qui dentro, molto è fornito o comprato grazie alla collaborazione di aziende. Ma molti prodotti sono realizzati in laboratorio, in maniera artigianale.

Di cosa si occupa, in particolare, il suo gruppo?

Tutti questi che vedete qui intorno, dall’aspetto così giocoso, sono i robot che facciamo noi.

La maggior parte di loro sono robot che aiutano a comunicare le persone con disabilità soprattutto cognitiva, paralisi cerebrale infantile e autismo.

Noi non facciamo terapia, realizziamo giochi che utilizzano robot. Ne ho parlato anche in un libro sul tema.

Che cosa ha di diverso questo vostro approccio? 

Innanzitutto, il gioco è un elemento base che è fondamentale nella formazione di qualsiasi bambino. Aggiungiamo che molti di questi bambini con disabilità, spesso non possono giocare o non vengono fatti giocare perché possono avere problemi di relazione, oppure perché il giocattolo non è adeguato.

D’altra parte, il rapporto con il robot è uno scambio. Perché il robot è autonomo; non è come una bambola che richiede all’utilizzatore di inventarsi una storia che le dia vita. Il robot, in autonomia, reagisce.

E anche voi, a volte, vi trovate di fronte a rivolgimenti inaspettati nell’attività ludica, vero?

Certo. C’è stata una volta una bambina con sindrome di Down che giocava con un robot, aiutandolo a trovare delle pezze colorate sul pavimento. Ad un certo punto la bambina si è trovata a muovere la pezzetta nera, accorgendosi che il robot la seguiva, e modificando così l’andamento del gioco. Una volta arrivati i suoi compagni, ha spiegato loro il gioco. In quel momento, finalmente, si è relazionata per la prima volta con loro.

Un’altra volta, un bambino che si è accorto che un robot era telecomandato, è andato a prendere il telecomando, e così ha creato una relazione attraverso lui con un altro bambino che prima non aveva approcciato.

Racconto ancora un episodio. Un robot si era messo a piangere perché era stato spinto a terra, per far capire che l’azione verso di lui era stata violenta, e il bambino coinvolto è rimasto stupito, per poi portargli la pezzetta gialla, del colore del suo corpo, per consolarlo.

Che cosa rende i robot così speciali?

Il robot permette un meccanismo di azione-reazione. E nel nostro caso, la reazione è controllata. È come quando i bambini vogliono ascoltare una stessa fiaba: per loro, questo vuol dire provare sempre una reazione nota, che rappresenta una conferma che quello che stanno facendo “è giusto”.

Quando il robot è comandato, il terapista può mettere in pratica azioni volte a facilitare specifiche situazioni e reazioni.

Ci spiega qualche vostro progetto nello specifico?

È molto interessante, ad esempio, il progetto FROB. L’obiettivo è sviluppare una metodologia e degli strumenti per realizzare robot autonomi in grado di supportare le attività ludiche dei bambini con disabilità, fisica e cognitiva, aiutandoli a superare le limitazioni individuali e le barriere ambientali che impediscono loro di giocare autonomamente.

Mentre la maggior parte dei giocattoli e dei prototipi robotici disponibili sono adatti a un solo tipo di interazione, con uno scarso potenziale ludico, la caratteristica dei FROB è di essere estremamente modulari.

Questo è il prototipo. Come vedete, si muove su ruote e ha diversi moduli che si possono inserire, e che fanno “succedere cose”. Il bambino stesso può costruirsi il suo robot con altoparlanti, luci, accelerometro, e tanti altri moduli.

Stiamo per iniziare la sperimentazione nelle scuole dell’infanzia, per favorire l’inclusione dei bambini con disabilità.

Altri progetti?

Stiamo lavorando su progetti anche più tecnologici.

Ad esempio, un robot che integra l’intelligenza artificiale con una telecamera per rilevare cosa fanno le persone, analizzando il loro scheletro e i loro movimenti. Lo utilizziamo per condividere l’attenzione con i ragazzi autistici: in quel modo faccio capire che io sto focalizzandomi sull’oggetto e tu stai guardando quello stesso oggetto.  Il robot, essendo dotato di una telecamera, permette di raccogliere dati oggettivi per realizzare una valutazione, che normalmente viene fatta solo a posteriori da persone umane che guardano i filmati dell’esperienza.

E quella sedia a rotelle motorizzata?

È una sedia a rotelle ad autonomia condivisa. È dotata di un laser che le permette di sapere dove sta andando. La persona che la utilizza riesce a controllarla con delle interfacce coerenti con quello che riesce a fare: operare con un joystick, stringere la mascella, respirare. E se ha delle difficoltà, la sedia si occupa della sicurezza, evitando di urtare oggetti.

Con quella abbiamo fatto anche un lavoro di human-robot interface con persone con la SLA di livello molto avanzato, che non possono muovere muscoli ma hanno il cervello pienamente funzionante. Esaminando l’encefalogramma dell’utilizzatore, la sedia capisce dove andare. Come fa? Se la persona si concentra su un luogo, il cervello genera un’onda di riconoscimento, la P300. Il sistema fa lampeggiare ciclicamente i nomi dei luoghi, e quando riconosciamo quest’onda, veniamo a conoscenza di dove la persona vuole andare.

Nonostante avessimo vinto ben due competizioni per la realizzazione del prodotto, il progetto non ha avuto una successiva applicazione pratica, perché l’investimento necessario era alto, e nessuno si è assunto il rischio su un prodotto così innovativo.

Purtroppo non sono rari i casi in cui un progetto con grandi potenzialità non trova poi applicazione pratica

Con l’Istituto Nazionale dei Tumori avevamo sviluppato un sistema diagnostico del tumore polmonare basato sul respiro che, raccolto in un sacchetto, viene poi analizzato con l’intelligenza artificiale e il naso artificiale. Su un campione di 200 persone, aveva dato risultati migliori della TAC; inoltre aveva un costo molto più basso ed era molto più veloce. Ma per passare alla fase successiva, servivano almeno 2.000 casi, e non avendoli a disposizione, il progetto è affondato.

Voi avete anche una lunga storia di collaborazione con la Scuola del Design

Sì, da oltre 13 anni offriamo un corso di “Robotics e design”, frutto della collaborazione tra la nostra Scuola di Ingegneria Industriale e dell’Informazione e la Scuola del Design. Metà studenti vengono da una scuola e metà dall’altra. Ogni anno forniamo un brief, e loro realizzano dei robot sempre molto originali.

Riusciamo così a far dialogare due mondi diversi: il design, caratterizzato da problem setting e tanti prototipi, e l’ingegneria, con l’analisi delle specifiche e la realizzazione del prototipo.

Alcuni prodotti di questa collaborazione, oltre a proporre nuove soluzioni, sono anche molto divertenti da vedere

I robot in questione fanno un po’ di tutto. Alcuni dovevano rappresentare un certo tipo di musica e muoversi al suo ritmo: ad esempio quello che fa funky o l’altro, quello che fa grunge, che alla fine della canzone si toglie “la vita” e perde la testa.

Lì vedi il messicano che doveva invitare i clienti al ristorante messicano offrendo i nachos e poi togliendoli. Oppure il boccale di birra che ha quarantasei modi diversi di interagire.

C’è poi un’altra parte di ricerca, legata all’interazione tra essere umano e robot

Sì, è basata sul fatto che il robot mostra delle emozioni: cerca di convincere, cerca di capire. Quando ci avviciniamo a questo tipo di robot, loro hanno delle reazioni, esprimono delle emozioni. Alcuni sono contenti se li accarezziamo, altri si spaventano se ci avviciniamo. Questi robot vengono utilizzati anche con bambini con disabilità, proprio per queste peculiari caratteristiche nell’interazione.

Ci parli del robot attore

Il nostro prototipo di robot attore sta in scena e segue le indicazioni del regista. Con lui abbiamo realizzato anche un brano tratto da Pinocchio, dove lui non si ritrova nella balena, ma in un’astronave. Abbiamo anche provato a fare una parte di improvvisazione, attività teatrale propedeutica a realizzare robot che stanno a casa delle persone e si trovano in situazioni impreviste.

Abbiamo inserito i robot proprio nel contesto teatrale: lui entra in scena e capisce che tipo di movimenti fa l’altro attore, risponde nel contesto dell’azione scenica con gesti e linguaggio naturale. Era riuscita molto bene addirittura la comprensione del sarcasmo. Ci siamo dovuti fermare, però, davanti allo scoglio dell’espressività del parlato: non siamo ancora riusciti a rendere la perfetta corrispondenza tra cosa detta e modo di dirla.

Avete realizzato anche una escape room alla mostra X-Cities. Ci spiega come funzionava l’esperimento?

Per la mostra X-Cities alla Scuola di Architettura, abbiamo realizzato una specie di labirinto, un’escape room: la persona che partecipava all’esperienza sapeva dov’erano le chiavi per uscire, ma doveva convincere il robot a trovarle. Il robot non era autonomo, c’era un’altra persona all’esterno con un visore che viveva la sua stessa esperienza in un mondo virtuale senza sapere che il suo avatar era un robot reale. Si trattava di una rappresentazione minimale del robot ritradotta: due persone che in realtà parlavano vivendo in due mondi diversi.

Abbiamo fatto anche l’inverso, in cui il robot sapeva dove erano le chiavi giuste e la persona doveva trovarle facendosi convincere dai gesti che faceva il robot.

Il punto era sperimentare diverse strategie di espressività. Bracci e videocamere che devono muoversi espressivamente. Robot che diventano collaborativi solo se accarezzati; ma prima devono convincere le persone ad accarezzarli solo con il movimento.

Abbiamo realizzato installazioni artistiche sullo stesso tema. Ad esempio, un blob peloso, quasi ributtante, che però voleva essere abbracciato, e doveva far capire alle persone questo suo desiderio.

Che cos’è questa specie di stanza di cartone qui in mezzo al laboratorio?

L’abbiamo costruita noi. Al suo interno ci sono diversi oggetti, che spuntano da tutte le direzioni, dall’alto, dal pavimento. La stanza percepisce la realtà attraverso questi oggetti. C’è anche un luogo più appartato, al suo interno. Se una persona arriva nella stanza gentilmente, “lei” spruzza del profumo; se arriva con arroganza o violenza, spruzza una sostanza disgustosamente puzzolente.

La stanza è un luogo distribuito. Non ha una posizione nello spazio come un robot, che si muove similmente a noi. C’è una persona con un visore che sta percependo quello che percepisce la stanza, ossia qualcosa o qualcuno che gli “entra dentro”.

È un tema che riguarda ancora la plasticità cerebrale: tutti noi siamo diversi, e con i nostri corpi esperiamo il mondo in modo sempre diverso gli uni dagli altri.

Avete realizzato altri esperimenti sull’esperienza dello spazio?

Sì. Ad esempio, in un caso, alcune persone erano inserite in una stanza reale con un visore, mentre un’altra persona posizionata all’esterno viveva l’esperienza della stanza sul proprio corpo, attraverso una serie di sensori aptici, che vibravano se l’altra persona stringeva parti e arredi della stanza.

Sempre in quest’ottica, in un workshop abbiamo fatto partecipare artisti con sensori addosso: pompette, microfoni, accelerometri, sensori di distanza, ecc. Sono andati in scena con la possibilità di controllare robot che si muovevano a seconda dei dati dei sensori indossati. Volevamo vedere cose interessanti scaturire dall’interazione tra la persona e il robot.

L’obiettivo è che i robot siano capaci di trasmettere espressioni al livello degli umani?

Noi non vogliamo che i robot siano umanoidi, e stiamo sperimentando forme molto diverse. Stiamo studiando elementi base e configurazioni fisiche che la persona riconosca come espressione emotiva. Per questo stiamo esplorando meccanismi che sono mutuati sia dalla danza – partendo dalla codifica per l’espressione emotiva dei ballerini introdotta da Rudolf Laban – sia dai cartoni animati. Negli anni Trenta, ad esempio, uno degli esercizi per gli animatori Disney era quello di fare pratica con un sacco di farina mezzo vuoto, a cui far trasmettere emozioni tramite varie posizioni e movimenti. Oppure pensiamo alla lampada della Pixar e alle sue capacità espressive.

Guardate quei due bidoni dell’immondizia: quello di destra è una pattumiera emotiva, che sfruttando il movimento del coperchio cerca di invitare le persone a darle immondizia. L’altra, invece, invita le persone a entrare in un museo con un’esposizione sul riciclo: quando qualcuno si avvicina, il coperchio si apre e ne esce una radiolina che muove l’antenna in maniera espressiva.

Ci sono anche delle implicazioni etiche e filosofiche, immaginiamo, riguardo alle emozioni dei robot…

Una volta ho partecipato a una Pint of Science, durante la quale davanti a una birra e con diversi giovani tra cui una studentessa di filosofia abbiamo passato diverso tempo discutendo se un robot possa “avere” emozioni o solo “mostrare” emozioni.

Che cos’è un’emozione? Una reazione fisica? In questo caso, se riesco a riprodurre una reazione fisica a un evento esterno, quella è un’emozione. Altri dicono che è qualcosa di diverso, di più “alto”, di ineffabile.

Ma noi non siamo filosofi, qui dentro. Siamo ingegneri. E abbiamo bisogno di regole: se mi dici cosa vuoi ottenere, se mi dai le specifiche, cerchiamo di farlo. Se mi dici che cos’è per te un’emozione, la realizziamo.

Qual è il valore aggiunto nell’affrontare le disabilità cognitive con i robot?

L’educatore propone giochi, attività che presuppongono interazioni tra persone. Le classi scolastiche che frequentiamo cercano di fare educazione tramite questi strumenti. Ma il bambino autistico, magari, nel partecipare al gioco va per conto suo.

Il robot è uno strumento in più. Il robot è un ente autonomo: non è né una persona, né un’autorità. Il bambino autistico ha difficoltà di interazione quando sono presenti altre persone. Il robot ha emozioni e lo aiuta a riconoscere le sue.

Ad esempio, questo pupazzone con la grande bocca rossa serve per coinvolgere persone in sedia a rotelle. Il gioco è quello di buttare palline nella bocca del robot.

Seguendo la teoria dell’esperienza ottimale, il gioco rende possibile raggiungere il flow, ovvero l’equilibrio tra sfida (challenge) e abilità (making). Quando sono veramente coinvolto, esiste solo l’attività che sto facendo. E riesco a farla solo se non è troppo difficile, ma è al tempo stesso abbastanza stimolante. Vale per tutti, ma soprattutto per il bambino con l’autismo. Bisogna trovare un canale di comunicazione che trasmetta il messaggio: “Guarda che ce la fai”.

Quando nasce l’intelligenza artificiale?

L’intelligenza artificiale nasce nella leggendaria estate del 1956, a un seminario organizzato al Dartmouth College, nel New Hampshire. Undici personaggi con qualsiasi tipo di background, dall’informatica alla medicina, alla filosofia, si sono ritrovati a ragionare su come si potesse realizzare una macchina dotata di intelligenza.

I primi anni erano dominati dal ragionamento: mettere insieme le catene logiche. Ma era anche molto di più: gestione dell’incertezza, apprendimento, mondi alternativi, riconoscimento delle sfumature della realtà.

Ci racconti cosa successe in quel fatidico 1973, data di nascita di AIRLab

Tante persone che hanno portato al Politecnico l’esperienza di allora sono ormai in pensione. Erano giovani che erano stati a Stanford, dove si stava sviluppando l’intelligenza artificiale, in quegli anni Settanta. Di giorno a studiare e la sera al laghetto a fare di tutto. Era il mondo dove nasceva tutto ciò che vediamo adesso sull’IA.

Marco Somalvico era un personaggio estremamente affascinante. Imprevedibile, sorprendente, geniale. A Stanford aveva lavorato con John McCarthy, uno dei fondatori dell’intelligenza artificiale, e con i suoi collaboratori. Da quel viaggio nella “macchina del futuro”, come lui chiamava gli Stati Uniti, era tornato carico di competenze e idee. Vedendolo in giacca e cravatta non ti saresti mai immaginato che in quei tre anni a Stanford avesse anche guidato gruppi di teatro psicologico o si riportasse a casa libri su Krishna.

Grazie a lui, AIRLab è stato uno dei primi gruppi di ricerca sull’IA e la Robotica in Italia. “La robotica è tutto”, diceva. E in effetti è una disciplina che richiede diverse competenze: programmazione, intelligenza artificiale, elettronica, comunicazione e via dicendo. Ognuno di noi si è specializzato in un diverso ambito, facendo di AIRLab un serbatoio preziosissimo di competenze. Il bello del laboratorio è questo.

Nel 1987 Somalvico riuscì addirittura nell’impresa di portare a Milano la conferenza mondiale sull’IA: IJCAI87. Tra i fondatori dei Poli di Como e Cremona del Politecnico, morì purtroppo troppo presto.

Successivamente, come si è evoluta la riflessione sull’intelligenza artificiale?

La riflessione sulle reti neurali c’è stata da subito, proprio perché nei primi gruppi di lavoro c’erano sempre presenti medici e biologi. E con loro gli scienziati cognitivi, perché era importante capire come funzionasse la mente.

Il lavoro degli informatici, come vi dicevo prima, è realizzare il modello per raggiungere l’obiettivo prefisso: altri proponevano modelli  e gli informatici  li implementavano, con i calcolatori dell’epoca.

Gli anni Ottanta sono stati quelli del comportamentismo: i robot non devono più ragionare, ma devono avere dei comportamenti e delle reazioni di base. Mettere insieme tanti comportamenti semplici per arrivare a comportamenti complessi. Si rifletteva se fosse possibile realizzare dei modelli di emozioni.

A che punto siamo oggi?

All’inizio si studiava il linguaggio naturale, la struttura della frase, il significato delle parole. Ma questo approccio è fallito perché la complessità era troppo alta, e i costi non ripagavano i risultati.

Oggi l’approccio è diverso: non “nutriamo” più noi direttamente il sistema di intelligenza artificiale, ma gli diamo in pasto tanti esempi, puntando sul fatto che il meccanismo che abbiamo programmato imparerà costruendo il modello in autonomia.

Però, in questo modo, stiamo perdendo le persone “che sanno le cose”. L’IA reagisce sempre allo stesso modo, impoverendo il pensiero. È il meccanismo che c’è alla base degli algoritmi: ti cercano sempre le stesse cose, pensano che tu abbia sempre gli stessi interessi. L’algoritmo, oggi, non usa nulla più della statistica: per questo riusciamo ancora a fregarlo.

Per non parlare dei meccanismi che stanno implementando i chatbot di intelligenza artificiale generativa ora in voga: i valori della classe dominante, maschile, americana, bianca, politicamente corretta.

Quindi l’intelligenza artificiale non è solo “roba da informatici”?

Assolutamente no, come dicevo ricordando gli albori della disciplina.

L’IA è ormai una commodity per tantissimi. Quello che viene fatto qui è inventare nuovi metodi per ottenere i risultati. Fare modelli che cercano di capire cosa sta succedendo. Per fare questo, servono competenze che vanno oltre i modelli attuali.

Una delle cose negative del momento che stiamo vivendo è che siamo sempre molto concentrati sull’aspetto tecnico, a caccia di miglioramenti incrementali. Una cosa che secondo me manca è il “salto”, il cambio di paradigma. Il paradigma attuale funziona bene in alcuni ambiti, meno su altri. Ad esempio, fare imparare a un robot come affrontare al volo una situazione imprevista non può esser ottenuto con algoritmi che richiedono milioni di interazioni, come quelli attuali.

Raccogliendo uno spunto che ci ha fornito poco fa, trova che l’intelligenza artificiale sia basata su un modello fin troppo centrato sull’umano?

Molta tecnologia è ispirata a noi. Ci possiamo chiedere se sia necessario.

La rete neurale è ispirata al cervello umano. I bracci attraverso cui un robot interagisce sono ispirati alle nostre braccia. Le telecamere, i sensori di luce sono ispirati ai recettori dell’occhio umano. C’è un motivo perché lo siano? Magari verrebbe tutto meglio in forma diversa.

L’intelligenza artificiale non si può più spegnere?

Concordo. Perché sono presenti talmente tanti attori, che si dovrebbe spegnerli tutti. E questo non è possibile. I cinesi non spegneranno nulla, sicuramente. Gli americani stano cercando di tenere tutto in casa, finché ci riescono. Ma nessuno si ferma.

Cosa ci riserva il futuro?

Sono sempre molto cauto sul futuro. Due o tre anni fa non si immaginava quello che abbiamo oggi. Le previsioni a dieci anni sono sempre inutili.

Mi sembra che questa sia la fase del “facciamo cose che possono servire”. Che poi vuol dire fare soldi, vincere la guerra, e via dicendo.

Qui all’AIRLab stiamo andando avanti con il nostro lavoro sull’interazione dei robot con le persone. Non stiamo lavorando più di tanto sul linguaggio naturale perché ci sono tante organizzazioni più potenti che lo fanno già in giro per il mondo. Quello che facciamo nel nostro laboratorio è un po’ di nicchia.

Come da tradizione, ci consiglia qualche libro sul tema?

Per chi voglia conoscere le basi scientifiche, il testo dei nostri studenti è: Russell, Norvig, “Intelligenza artificiale. Un approccio moderno” (Pearson).

I racconti di fantascienza di Ted Chiang sono molto verosimili e aprono a interessanti problemi sociologici e filosofici su cui riflettere. Consiglio due raccolte: “Respiro” e “Storie della tua vita” (Pickwick).

Sul Metaverso (più o meno fisico), il riferimento è “Snow Crash” di Neal Stephenson (Mondadori), dove viene usato per la prima volte il termine “avatar” per indicare l’essere in cui un individuo si impersona. Un romanzo godibile e avvincente.

Sui robot e il gioco per bambini con disabilità, ho scritto insieme a Serenella Besio “Robot play for all” (Springer). Non un romanzo, ma una guida rigorosa scaturita dalle attività del nostro laboratorio e dall’esperienza della collega. Un altro esempio di collaborazione multidisciplinare.

Condividi