Macchine intelligenti e umani: siamo pronti a collaborare?

da | Mar 22, 2021

Con l’ultimo incontro del 18 marzo, si chiudono i seminari di Iusintech sulle nuove abilità delle macchine intelligenti. Nell’ambito della Milano Digital Week, è la volta delle ‘Macchine che collaborano’.

Umani e umanoidi insieme, lavorano e convivono negli stessi spazi. Collaborano. Ma qual è lo stato di accettazione sociale per le macchine intelligenti?

Se n’è parlato giovedì scorso, nell’ultimo seminario organizzato da Iusintech, appuntamento inserito all’interno del programma dell’ultima edizione della Milano Digital Week in ‘Diritti, uguaglianza e inclusione‘. Svoltasi completamente online dal 17 al 21 marzo scorsi, il tema della Milano Digital Week di quest’anno è stato riassunto nel claim ‘Città Equa e Sostenibile’.

Nel primo incontro del ciclo di seminari di Iusintech, del 19 febbraio scorso, si è discusso delle ‘Macchine che eseguono’. Paolo Costa ne ha parlato in un articolo pubblicato su LinkedIn Pulse, ‘L’intelligenza artificiale ucciderà il contratto?’ (lo trovi qui).

Poi, è stata la volta delle ‘Macchine che imparano’ del 26 febbraio. Un entusiasmante appuntamento che abbiamo raccontato nel nostro blog con un contributo dal titolo ‘Intelligenza come apprendimento, apprendimento come cambiamento’ (se sei interessato, clicca qui).

La terza puntata della serie è andata in onda il 5 marzo, affrontando il difficile tema delle ‘Macchine che eseguono’. Ancora una volta, è il nostro Paolo Costa a pubblicare un interessante approfondimento sull’intelligenza artificiale per il riconoscimento del linguaggio naturale e delle emozioni. Il titolo –  ‘Umano, troppo umano’ –  ci invita già alla lettura.

La robotica nell’Iliade di Omero e nel De mundo di Aristotele

‘L’accettazione dei robot umanoidi: l’effetto perturbante’ è il titolo dell’intervento dell’avvocato civilista Paola Belloli, co-founder Iusintech. Focalizzata sui temi delle nuove tecnologie, con un dottorato di ricerca in Filosofia del Diritto, collaboratrice all’Università di Pavia e presso il Centro Interdipartimentale dell’Università di Pavia European Centre for Law, science and new Technologies (ECLT), Paola Belloli spinge la sua riflessione sul difficile tema dell’accettazione sociale da parte dell’uomo, di macchine con caratteristiche umane negli ambienti che le accolgono. Siano queste caratteristiche human-like di tipo fisico, siano esse di tipo comportamentale.

La robotica non è una scienza nuova. Paola Belloli infatti ripercorre l’evoluzione della disciplina nella storia.

«Il tentativo dell’uomo di costruire artefatti che gli assomigliano nell’aspetto, nelle sue abilità, è già documentato addirittura nell’Iliade dove Omero parla di queste macchine semoventi, simili a fanciulle vive, che posseggono forza e sono adatte ai lavori».

In realtà, sottolinea Belloli, «si trattava di attrezzi semoventi che passavano nei templi offerte votive agli dei». Si accenna come sogno, come desiderio di creazione di robot, anche nel ‘De mundo‘ di Aristotele, che scrive: «Se ogni strumento potesse svolgere il lavoro che gli si addice anticipando così il volere delle persone, come le statue di Dedalo o i Tripodi di Efesto, non occorrerebbero apprendisti per i mastri artigiani, né schiavi per i signori.»

Dedalo aveva dato vita all’androide Talos per Minosse per fare da sentinella sulle mura di Creta. Efesto è il dio greco che aveva creato l’invincibile scudo di Achille e forgiava i fulmini a Zeus.

Macchine intelligenti e imprese

La robotica nelle imprese è in ascesa esponenziale, con un incremento molto alto: circa 1400 nuove macchine vengono immesse ogni giorno nei circuiti lavorativi di tutto il mondo.

In merito, Paolo Costa sottolineava nel suo già citato articolo come gli ambiti di utilizzo dell’intelligenza artificiale a supporto della comunicazione d’impresa fossero numerosi: «Come sempre, il rischio che corriamo è di sopravvalutare l’impatto dell’innovazione tecnologica nel breve periodo, lasciandoci trascinare da un sentimento ingenuo. Allo stesso tempo credo che stiamo sottovalutando i cambiamenti attesi nel lungo periodo. Cambiamenti ai quali, invece, faremmo bene a prepararci; con l’obiettivo di orientarli e sfruttarli a nostro favore, piuttosto che subirli.»

Allo stesso modo, le macchine intelligenti danno un valore aggiunto molto forte nel momento in cui vengono impiegate nelle attività produttive.

Receptionist od operaio?

Le skill dei robot permettono di utilizzarli «come receptionist ma anche come operai all’interno di facility per fare della movimentazione a fianco dell’operatore». Osserva l’ingegnere Fabio Puglia, presidente di Oversonic Robotics. In un’interazione molto forte uomo-macchina, con la parte operativa. 

Lo sforzo in Oversonic Robotics è capire ogni giorno quale sia il punto di equilibrio tra la richiesta tecnologica, affinché le macchine possano operare al meglio, e la capacità di essere accettate all’interno di un contesto lavorativo, per essere veramente efficaci.

La situazione di emergenza pandemica in cui tutti noi stiamo vivendo ha dato a molte realtà lo stimolo a guardare alle macchine intelligenti con un po’ più di concretezza, precisa Puglia. «Almeno un effetto positivo della pandemia nella quale ci troviamo, è sicuramente la maggiore ricerca in nuove tecnologie dando loro un’effettiva chance di poter essere messe in campo e testate». Un laboratorio continuo, quindi.

Macchine intelligenti, computer vision e voice bot

Tra le feature strategiche delle macchine intelligenti che stanno studiando in Oversonic Robotics, ricordiamo il picking di oggetti che avviene spesso sulla base della computer vision e di un sistema di voice bot.

«La necessità è quella di poter utilizzare queste macchine anche in un’ottica di remote driving», sottolinea Puglia, per dare alle macchine stesse un ampliamento delle potenzialità di impiego importante: in questo modo possono diventare sistemi mobili intelligenti «che possono dare un’estensione dell’opportunità di interazione con l’uomo all’interno di un ciclo produttivo industriale, rispetto alla movimentazione negli spazi».

Un progetto sfidante, conclude, un’esperienza estremamente interessante anche dal punto di vista filosofico a corollario delle attività di implementazione che vengono portate avanti.

È importante riflettere su tutti i temi legati al rapporto uomo-macchina, alla socialità e alla filosofia delle macchine intelligenti. Temi più concreti e «che rendono molto più operative queste macchine di quanto si possa pensare». Chiosa Puglia.

L’evoluzione delle macchine intelligenti

Sicuramente la convivenza tra macchine intelligenti diventa «un problema di interoperabilità tra due sistemi, entrambi automatici. Fa parte del gioco e dell’evoluzione», commenta ironicamente il Professore Amedeo Santosuosso – Presidente della I sezione della Corte d’Appello di Milano, Docente di Diritto, Scienze e Nuove Tecnologie presso il Dipartimento di Giurisprudenza dell’Università di Pavia e dell’Istituto Universitario di Studi Superiori di Pavia (IUSS), Direttore scientifico del già citato ECLT – che interviene nel dibattito a proposito del rapporto uomo-macchina nell’era dell’automazione intelligente, auto-domesticazione e cyborg.

Accettazione sociale dei robot umanoidi

In effetti, bisogna capire come la società accetterà le macchine con caratteristiche umane. L’accettazione può dipendere dalla somiglianza fisica o da quella comportamentale, dal settore in cui l’artefatto opera o dai luoghi di lavoro o di assistenza. Sottolinea Belloli nella sua riflessione. In ognuno di questi casi, cambiano le caratteristiche della macchina stessa.

Le macchine con caratteristiche umane hanno sia somiglianza fisica, sia comportamentale. Per questo ci sono resistenze ad accettare le macchine intelligenti con capacità simili a quelle dell’uomo: la relazione è una relazione molto complessa e coinvolge paure profonde, anche inconsce.

Secondo Belloli, è necessario che questi oggetti – che occuperanno lo spazio sociale umano – siano semplici da utilizzare, confortevoli fisicamente ma soprattutto emotivamente. Ed è fondamentale che non creino disagi psicologici.

I robot devono essere alti o bassi?

A proposito di somiglianza fisica, Cecilia Trevisi – partner in Comma 10 e membro di Iusintech, esperta in diritto industriale, d’autore e diritto delle nuove tecnologie – prende la parola puntualizzando sull’altezza dei robot che spesso hanno la stessa statura di un essere umano adulto. «Esistono degli studi rispetto al rapporto struttura fisica del robot e la sua autorevolezza?», domanda Trevisi a Fabio Puglia.

«Il fatto che il robot possa avere l’altezza di un adulto aiuta a far accettare queste macchine. In questo senso, molto si gioca sul layout da bambino, piccolino fisicamente, con gli occhioni», replica Puglia.

Questa scelta ha una doppia valenza: da un lato può spaventare, dall’altro però può innescare autorevolezza. «Essere un pochino più alti, benché implichi qualche problematica meccanica in più, paga da quel punto di vista».

Uomo-collaboratore umanoide: come deve essere quest’ultimo? 

Secondo un esperimento raccontato dal Professore Arash Ajoudani, a capo dello Human-Robot Interfaces and Physical Interaction Lab – Istituto Italiano di Tecnologia, nell’ambito del progetto SOPHIA, si sta indagando quale sia il rapporto e il livello di accettazione tra l’uomo e i collaboratori umanoidi.

Lo studio, portato avanti anche con la partecipazione di BAuA (German Federal Institute for Occupational Safety and Health) e l’Università di Bruxelles che si occupano di cognitive loading, è stato svolto intervistando più di 15 persone in Volkswagen e altre 15 persone per lo use case. Attualmente, sono in fase di elaborazione dei risultati che verranno poi resi pubblici dall’Istituto.

Secondo Arash Ajoudani, per stabilire se il robot deve essere antropomorfo bisogna indagare il contesto: «nel contesto industriale meno antropomorfiche sono queste macchine, più saranno accettate. Questo perché i robot industriali, anche se sono intelligentissimi, devono assomigliare a un trapano.» 

Le emozioni: l’effetto perturbante e l’attaccamento affettivo

Le emozioni con ricadute negative sono individuate da Belloli in due categorie: la prima, in cui confluiscono quelle che producono un effetto perturbante, «quella sensazione inquietante e talvolta terrorizzante che è studiata da Sigmund Freud nell’opera ‘Il perturbante‘» (Das Unheimliche, ndr) del 1919. Sensazione ripresa dall’ingegnere giapponese, studioso di robotica, Masahiro Mori nel saggio ‘Uncanny valley‘, la valle del perturbante, pubblicato nel 1970 sulla rivista Energy.

Nella fotografia di Mori, che si ispira al lavoro di Freud per il termine ‘perturbante’, non si prendono in esame dati ottenuti da ricerche empiriche o statistiche, ma solo concettuali.

La seconda categoria comprende quell’emozioni più pericolose che determinano un eccessivo attaccamento affettivo a una macchina intelligente. Queste emozioni possono avere ripercussioni non piacevoli, talvolta anche gravi.

Belloli: «Masahiro Mori evidenzia come all’aumentare dell’aspetto umano, della somiglianza del robot all’umano, la human likeness aumenta la familiarità. Aumenta progressivamente fino a un certo punto, fino a un picco. Superato questo punto, ulteriori elementi di somiglianza con l’umano possono invece far precipitare la familiarità e quindi crollare nella valle del perturbante.» Tutto questo suscita un effetto di terrore

Turbamento, spavento: la valle del perturbante

L’esempio di Mori riportato da Belloli, si riferisce a un umanoide che da lontano può sembrare un essere umano. Quando ci si avvicina, ci si accorge dallo sguardo o da un altro particolare dissonante che umano non è. Questo causa l’effetto di spavento e provoca turbamento. «Si pensi a una mano protesica che sembra una mano vera ma quando poi la si tocca, si percepisce il freddo del ferro». Evidenzia Belloli presentando il grafico relativo agli studi sull”Uncanny valley’ di Mori, che per chiarezza riportiamo di seguito (estratto da Wikipedia).

Grafico che mostra la Uncanny valley di Masahiro Mori.
‘Grafico che mostra la Uncanny valley’ – Traduzione italiana dell’immagine ‘File:Mori Uncanny Valley it.svg’. Autore: Smurrayinchester, CC BY-SA 4.0, Wikipedia.

Nel grafico, la curva mostra che all’aumentare della somiglianza con l’umano – quando si raggiunge il 100% di somiglianza, cosa molto difficile –  cresce il livello di familiarità con il robot. Mori però mette in guardia i produttori di macchine intelligenti, dall’avvicinarsi troppo alla somiglianza con gli esseri umani. Il rischio è di cadere nella valle del perturbante.

L’analisi di Freud, riportata da Belloli, parte da situazioni e oggetti che possono portare notevole turbamento, come la vista di sosia, di doppi o «come ‘la paura dello iettatore’, cioè l’idea spaventosa che qualcuno possa suscitare danno solo con il pensiero o che noi stessi possiamo farlo».

Freud cerca di capire che cosa abbia suscitato questo effetto spaventoso rispetto a una situazione semplicemente nuova e sconosciuta. E osserva che non tutto ciò che è nuovo, sconosciuto e inaspettato provoca un effetto perturbante.

L’indagine semantica: l’enantiosemia di unheimliche

Proseguendo nell’indagine, Belloli evidenzia come Freud sia aiutato nella sua ricerca anche dall’indagine semantica della parola unheimliche che è un caso speciale di enantiosemia: la proprietà di alcune parole di avere tra i suoi significati anche significati opposti, come feriale che oggi è utilizzato per riferirsi ai giorni lavorativi ma deriva dal latino feriae, giorni di risposo. Freud costata che heimliche e unheimliche, che è il suo contrario, hanno significato identico: cioè ciò che è nascosto alla coscienza è segreto, ciò che dovrebbe rimanere nascosto è invece venuto alla luce.

Da qui l’effetto perturbante, «una sensazione paurosa che è stata rimossa e che avrebbe dovuto rimanere celata alla coscienza ma che invece alcune situazioni riportano alla luce».

Il perturbante quindi non è qualcosa di estraneo, ma qualcosa di familiare divenuto estraneo attraverso un processo di rimozione.

«Accanto al rischio di subire un effetto perturbante sussiste un altro rischio psicologico: più dannoso e di segno contrario. Il pericolo che queste entità intelligenti siano così attraenti per cui si instauri con loro un legame affettivo». Commenta Belloli.

Il Parlamento Europeo per l’attaccamento emotivo tra uomini e umanoidi

Il Parlamento Europeo con una risoluzione del 16 febbraio 2017, che reca delle raccomandazioni alla Commissione, ha evidenziato il rischio dato dalla possibilità che nasca un attaccamento emotivo tra gli uomini e i robot; in particolare per i gruppi più vulnerabili, quali bambini, anziani e disabili. «Occorre interrogarsi sui rischi connessi al grave impatto emotivo e fisico che un tale attaccamento potrebbe avere sugli uomini», sostiene Belloli. In questo senso, si tratta del primo documento giuridico in cui le emozioni, nel rapporto con questi artefatti intelligenti, siano prese in considerazione.

A questo punto, Belloli offre uno spunto di riflessione: la possibilità di subire danni psicologici da un attaccamento emotivo con un robot può dare luogo a una responsabilità del produttore del robot stesso?

L’attaccamento emotivo alle macchine intelligenti

Sherry Turkle, sociologa, psicologa e tecnologa, ha studiato questo fenomeno e ritiene sia possibile e frequente che all’inizio della relazione il robot venga vissuto in modo neutro, in quanto necessario sostituto di una persona umana. Poi, col passare del tempo, si ipotizza che questa interazione continui a migliorare. Ciò avviene sia perché spesso questi robot sono basati su machine learning, quindi macchine che migliorano le loro prestazioni, anche di comprensione e sostegno psicologico, sia perché il tempo trascorso insieme crea un maggiore attaccamento.

Di conseguenza, la persona che ha la relazione con il robot, potrebbe arrivare a preferirla a quella con gli umani. Tale problematica è stata, ed è tuttora, motivo di indagine di molti psicologici. Tuttavia, questa reazione può essere giustificata pensando che la relazione con il robot ci mette al riparo dalla complessità dei rapporti umani, dalla ambivalenza dei rapporti stessi, dalle delusioni e da tutte le sfumature che le relazioni tra umani comportano.

Per Belloli, i robot «ci tengono lontani però anche dalla possibilità di esperienza di vera empatia. Se parliamo di giovani, il problema non è secondario perché diventa sempre più difficile riuscire ad avere relazioni con i propri simili biologici».

Un esempio di questo tipo di relazione pericolosa è quella narrata nel film Her del 2013 del regista Spike Jonze

Macchine intelligenti e codici etici

In riferimento al Parlamento Europeo e alla robotica, quindi all’introduzione di un codice etico nell’interazione uomo-macchina, nell’acceso dibattito del seminario, si domanda: i codici etici sono solo rivolti ai programmatori?

Secondo Belloli, la robotica è solo il contenitore all’interno del quale si pone il ragionamento. «Il tema sono i bias dell’intelligenza artificiale. Chi ha il compito di progettare gli algoritmi, quali valori va a tradurre?»

Tutto ciò, apre un tema in realtà molto più ampio: l’universalità del diritto e dei codici etici. «Non esiste un concetto universale di eticità. Ci si sta avvicinando sempre di più nei paesi occidentali evoluti, però se consideriamo invece il mondo nella sua interezza, certamente i concetti etici sono profondamente diversi. Dobbiamo confidare nel legislatore, nella giurisprudenza».

L’interazione uomo-macchina e l’indagine sulle emozioni dei giudici

L’impatto emotivo conseguente all’interazione dell’uomo con queste entità intelligenti, non può essere sottovalutato. Saper prevenire e porre rimedio a disagi e difficoltà, soprattutto dei lavoratori sul posto di lavoro, oltreché di anziani o persone fragili che hanno a che fare con i robot assistenziali è fondamentale.

Secondo Belloli «i disagi e le difficoltà aumenteranno sempre più man mano che aumenterà la presenza di queste entità all’interno delle imprese e aumenteranno sempre più man mano che aumenteranno le loro abilità».

Le emozioni, ovviamente, non sono sempre negative. Dagli studi del neurologo Antonio Damasio, si può notare come le emozioni implicate nei procedimenti di processi cognitivi aiutano la cognizione.

Belloli osserva come le emozioni giochino un ruolo fondamentale anche nei processi decisionali. Infatti con tecniche di neuroimaging si è dimostrato come su un campione di giudici impegnati a prendere decisioni importanti e risolvere casi giudiziari, l’amigdala (l’area del cervello che gestisce le emozioni) fosse l’area maggiormente coinvolta durante i processi decisionali. Questo soprattutto nella fase di selezione degli elementi importanti per la decisione, di elementi fattuali. Il ruolo della mente razionale, invece, entrerebbe in gioco nel processo di costruzione. L’intuizione emotiva è quella che determina il tipo di decisione, osserva Belloli.

Competenze, adattamento, accettazione

Competenze, adattamento, accettazione: Rita Eva Cresci, avvocato e co-founder di Iusintech, nel corso del dibattito riassume con queste parole chiave gli interventi dei diversi relatori. Poi, pone un interessante quesito all’ingegnere Alessandro Vitale, CEO & Founder Conversate, membro AGID, intervenuto nel corso del seminario a proposito degli assistenti virtuali, dei chatbot come facilitatori delle attività di business.

Parlando del dovere da parte dell’impresa di aprire le porte alla collaborazione uomo-macchina, Cresci puntualizza: «Si sta muovendo tutto così in fretta. I grandi cambiamenti che pensiamo arriveranno in futuro, in realtà sono già qui».

Si pensi a un braccio meccanico, elettronico, come può essere quello a cui stanno lavorando all’Istituto Italiano di Tecnologia guidato da Arash Ajoudani «può essere una segretaria umanoide, come racconta Fabio Puglia, può essere una voce che ci fa compagnia la sera se siamo soli» come delinea Paola Belloli a proposito del film ‘Her’.

«Qualcosa arriverà, sicuramente. Molto presto. Quindi mi chiedo: oggi il mondo produttivo, con una serie di regolamenti che ancora devono compiersi, non è chiamato a farsi parte dirigente e a preparare questo cambiamento anche internamente, con skill e formazione, con un’apertura di mindset, affinché l’integrazione sia sicuramente più vantaggiosa per tutti? Cosicché non crei scoraggiamento, non crei improduttività, non crei frizione, ma crei invece propulsione per fare meglio, insieme, secondo quanto affermato anche dal Professore Santosuosso: l’uomo con la macchina, per fare meglio e stare meglio nel mondo».

Intelligenza aumentata e automazione

Per Vitale l’intelligenza aumentata rispetto alla controparte, che è l’automazione, quindi la macchina che fa tutto senza l’uomo, è meglio sia per le aziende (perché il robot da solo può fare più cose di un umano da solo) e sia per l’uomo che può dedicarsi a lavori più interessanti. A livello sociale c’è anche più occupazione. 

In generale, introdurre intelligenze aumentate è molto più difficile di introdurre automazione perché tale introduzione si scontra con la necessità di cambiamento delle persone.

In questo senso le persone devono cambiare lavoro, devono fidarsi delle macchine e ciò non è facile. «Spesso ci si fida troppo e poi quando la macchina sbaglia, non ci si fida più». Questo percorso è molto difficile, se questo è però il mondo migliore, «dobbiamo tutti impegnarci».

Da una parte il management deve spingere verso il cambiamento, ed è più facile a dirsi che a farsi. Infatti, «è più semplice tenere le cose come sono», spiega Vitale. Dall’altra, l’impegno deve partire anche dai collaboratori umani: i dipendenti devono abbracciare il cambiamento.

Il rischio è che facendo resistenza prima o poi arrivi l’automazione che sia più facile da utilizzare, che si faccia qualcosa non perché sia la soluzione migliore per tutti ma perché è la più facile da introdurre. «Questa è la grande sfida che abbiamo tutti, a tutti i livelli».

Accettazione sociale e responsabilità giuridica delle macchine intelligenti

A questo punto Belloli pone un secondo quesito: in che modo il problema dell’accettazione sociale coinvolge il diritto? 

Per il rischio di danni conseguenti a un eccessivo attaccamento affettivo dei robot collaborativi human like o animal like (robot che simulano il comportamento animale) si potrebbero prefigurare delle forme di responsabilità per i produttori dei robot coinvolti, se essi hanno determinate caratteristiche. Ma non è tutto. Si potrebbe configurare una responsabilità autonoma della macchina stessa, come soggetto giuridico. Anche su questo tema il Parlamento Europeo sta studiando come procedere per quel che riguarda il riconoscimento di una personalità elettronica ai robot. Infatti il robot è spesso frutto di un assemblaggio di parti realizzate da diversi produttori. Quindi in caso di danno, come si individua esattamente qual è il produttore responsabile del malfunzionamento che ha causato il danno?

Secondo Santosuosso, ciò che rende difficile la regolamentazione dal punto di vista giuridico, è esattamente il momento in cui avviene l’assemblaggio del robot (quindi la sua costruzione) che rappresenta la sintesi di diversi apporti provenienti da vari produttori. Il momento del primo utilizzo e degli utilizzi successivi, fino ad arrivare all’evoluzione adattativa del robot, in questo modo la catena di azioni e di possibili responsabilità si allunga a dismisura. 

Catena di azioni e responsabilità delle macchine intelligenti

«Questo è il motivo per il quale il concetto della legislazione europea, della responsabilità del produttore che ha indicato un grande progresso rispetto al passato, oggi è in difficoltà. Ci sono degli attacchi interessati a distruggere il concetto di responsabilità del produttore. Bisogna riconoscere l’allungamento della catena delle azioni e della vita di queste macchine. Un ferro da stiro nasce e muore come ferro da stiro, queste sono macchine diverse. Questa è una delle sfide più importanti come giuristi», conclude il Professore Santosuosso.

Il Parlamento Europeo sta ipotizzando di riconoscere ai robot autonomi più sofisticati, una personalità elettronica in modo che ogni entità robotica sia responsabile di risarcire qualsiasi danno causato.

Inoltre, le macchine che apprendono automaticamente grazie al machine learning si evolvono in maniera non del tutto prevedibile, talvolta sfuggendo anche alle previsioni progettuali degli stessi ideatori. Ricorda Belloli.

La conseguenza è che il produttore potrebbe non essere effettivamente il responsabile di alcune azioni della macchina. Belloli sottolinea che una personalità elettronica, corredata da una polizza assicurativa e da un patrimonio disponibile per i risarcimenti, non è da disprezzare.

«Il dibattito è aperto, vedremo cosa succederà.»

Quanto il diritto sta percorrendo la strada giusta nei confronti delle sfide poste dalle macchine intelligenti?

Per capire se il lavoro dei giuristi stia andando nella direzione corretta, in parallelo ai grandi sviluppi delle tecnologie menzionate, Cresci ha sottolineato la necessità del diritto di procedere di pari passo con l’evoluzione delle macchine intelligenti è oggi quanto mai imprescindibile. Cambiano i contratti di lavoro, «cambiano le dimensioni, cambia la relazione tra colleghi. Solo da questo punto di vista, alcuni contratti andrebbero necessariamente ripensati. Sicuramente anche il fatto di essere da una parte più umani e dall’altra “più trapano” come diceva Arash Ajoudani, ha il suo peso perché ogni ambiente ha un suo ecosistema e una sua funzione».

Il futuro delle macchine intelligenti è la collaborazione con l’umano

Raffaella Aghemo, avvocato e co-founder Iusintech, interviene citando il libro di Ian McEwan, ‘Macchine come me’. Secondo Aghemo, nel libro l’autore configura la personalità del robot assistenziale come demandata al proprietario e quindi all’utente. A tal proposito, Aghemo domanda all’ingegner Puglia se il futuro che ci attende sia quello descritto da McEwan o se saranno gli esperti informatici gli addetti alla costruzione delle caratteristiche fondamentali del robot domestico.

Puglia rammenta che in questo momento si lavora per fare rispecchiare il robot con le attività dell’uomo. Cosa potrà accadere nel futuro, non è dato saperlo. «Io sono dell’idea che lo sviluppo è talmente grande e repentino che le l’opportunità, pensiamo ai computer quantistici, sono talmente potenti che il futuro è sicuramente di macchine che ci affiancheranno».

Se il dibattito è incentrato su quale personalità sia corretto dare oggi ai robot umanoidi, cosa sia meglio rispetto all’accettazione del robot da parte dell’uomo, per l’ingegnere Puglia in un secondo step evolutivo le macchine intelligenti potrebbero anche essere in grado di crearsi una propria personalità in base all’esperienza vissuta. «Un tema che potrebbe finire, magari tra molti decenni, sul tavolo operativo».

Paolo Costa
Paolo Costa
Socio fondatore e Direttore Marketing di Spindox. Insegno Comunicazione Digitale e Multimediale all’Università di Pavia. Da 15 anni mi occupo di cultura digitale e tecnologia. Ho fondato l’associazione culturale Twitteratura, che promuove l’uso di Twitter come strumento di lettura attraverso la riscrittura.

Potrebbe piacerti anche

L’AI Act è fatto. Ora facciamo l’AI

L’AI Act è fatto. Ora facciamo l’AI

L’UE ha approvato l’AI Act, che entrerà in vigore per gradi. Alla sua base, il principio di conformità alla legge e la classificazione dei sistemi secondo il rischio. Ma se fosse troppo presto per regolare il futuro dell’intelligenza artificiale con un grande regime normativo?