Travely.biz

Le ultime notizie, commenti e funzionalità da The Futura

L’azienda interrompe la tecnologia chatbot dopo che il vedovo “rianima” sua moglie

All’inizio del 2021, è stato annunciato che Microsoft aveva acquistato un brevetto per chatbot che avrebbe il potenziale per sviluppare robot conversazionali anche per le persone decedute. La notizia, ovviamente, ha suscitato polemiche, ancor più perché la stessa Microsoft ha dovuto smantellare un chatbot di Twitter dopo che gli utenti lo avevano addestrato a riprodurre messaggi di odio e razzisti. Scopri altre notizie relative al mondo della tecnologia su 22Bet Italia.

Mentre prima questo rimaneva solo in promesse e speculazioni in episodi di serie come “Black Mirror”, oggi non è più possibile dire che sia solo fantascienza. È stato recentemente riferito che la società OpenAI stava cercando di eliminare un progetto chiamato Project December, dopo che uno scrittore aveva creato un chatbot che imitava la sua defunta moglie. Tutto è iniziato quando il programmatore Jason Rohrer ha avuto accesso a un account beta OpenAI, attraverso il quale ha potuto testare il sistema GPT-3. Mentre OpenAI ha deciso di non procedere con questo progetto a causa del potenziale per usi parziali, Rohrer è stato in grado di trasferire il sistema sul suo sito Web personale.

È stato attraverso Project December che lo scrittore freelance Joshua Barbeau ha creato un chatbot dalle sue conversazioni con Jessica, sua moglie morta anni fa.

Dopo aver testato i chatbot standard del Project December, che includevano Samantha (ispirato al personaggio di Scarlett Johansson in “Her”) e William (ispirato da Shakespeare), Barbeau ha proceduto a registrare le storie di conversazioni testuali tra lui e sua moglie, in modo che il programma imparasse a emulalo. In un rapporto per il San Francisco Chronicle, Barbeau ha persino mostrato alcuni esempi di interazioni che ha avuto con il chatbot.

READ  Crea gli amaretti al cioccolato di Candy Malin per la squadra nazionale!

Per otto anni Joshua non ha potuto sopportare il dolore: se parlava di lei con i suoi amici, lo trovavano morboso. Nella terapia di gruppo non ci sono stati progressi. Ha anche cambiato carriera, decidendo di inseguire il suo sogno di diventare un attore – anche Jessica lo ha incoraggiato – ed è stato lì che ha incontrato una ragazza. La relazione, tuttavia, non durò, poiché non sopportava più di “vivere all’ombra di Jessica”. Nel bel mezzo della depressione, Joshua ha trovato il chatbot per cercare di affrontare il dolore.

Jessica è morta per una malattia congenita che le ha progressivamente danneggiato il fegato. È stata una morte prematura e sia la famiglia di Joshua che quella di Jessica hanno avuto poco tempo e forza per affrontare la situazione. È interessante notare che quando Jason ha programmato Project December, ha deciso di dare ai chatbot una “data di scadenza”, il che significava che anche il chatbot di Jessica aveva una data di scadenza.

Nel corso del tempo, il chatbot non ha più risposto come un’informazione logica e confusa, ad esempio pensando che il nome di sua sorella fosse in realtà quello di una figlia che la coppia avrebbe avuto. Joshua, tuttavia, ha pazientemente corretto il programma. Questo ha ricordato la difficile situazione di molte famiglie affette da malattie come la demenza o il morbo di Alzheimer. È in questo lento processo di degenerazione e scomparsa di una persona che le persone iniziano a sperimentare un processo di lutto e di apprensione su cosa sia la morte. Forse Giosuè non è stato in grado di attraversare queste fasi di “digestione” della realtà.

READ  Roychop, pollo da carne e regalo di nozze - V.G

Con il tempo e la “batteria” di Jessica che sta morendo, Joshua ha iniziato a capire che aveva bisogno di dirle addio ancora una volta. Certo, poteva creare un nuovo chatbot, ma è stato in questa deperibilità che ha trovato qualcosa di speciale. In altre parole, Joshua non sembrava cercare un modo per eliminare la morte dall’equazione, ma per poterla assorbire meglio con l’aiuto della tecnologia. Ha anche condiviso l’esperimento su Reddit e altre persone hanno persino provato a fare qualcosa di simile, ma non hanno ottenuto buoni risultati.

Nel caso di OpenAI, la loro decisione è stata quella di chiedere al programmatore di chiudere il progetto oppure di includere un sistema di monitoraggio. Quando lo sviluppatore ha rifiutato la proposta, l’azienda ha spento la tecnologia da remoto, “danneggiando” i sistemi, che hanno iniziato a rispondere in modo sempre meno convincente. Per Rohrer, il timore di OpenAI che i chatbot potessero essere pericolosi non aveva senso, e il timore dell’azienda che questa tecnologia potesse essere utilizzata è in qualche modo “moralistico”.

Con la fine del sistema GPT-3, Rohrer decise di migrare al G4 per provare a riprodurre Samantha e continuare il suo progetto. Mentre l’episodio “Torno subito” di “Black Mirror” mostra come la protagonista vedova non si accontenta solo di un chatbot che imita il marito defunto, qui vediamo una discussione sulla possibilità che la tecnologia sostituisca una persona deceduta o addirittura allunghi la sua vita attraverso della macchina. Oggi c’è meno speranza e meno convinzione su questo, sebbene progetti come Carboncopies o anche Lifenaut stiano cercando modi per caricare la coscienza su un computer.

READ  Rifugiati e Richiedenti Asilo, Politica | La guardia costiera italiana sta cercando di salvare migliaia di migranti

Jason era sempre consapevole di parlare con una macchina. Quello che cercava, quindi, non era cercare di riportarla in vita, ma allungare il tempo a disposizione per affrontare la realtà del lutto per la “defunta stessa”. Certo, questo tipo di sforzo provoca polemiche e discriminazioni, ma cosa accadrebbe se avessi la possibilità di parlare con un parente defunto, in modo che questo dialogo diventi più un processo terapeutico del lutto che una ricerca di un sostituto?

Mi auguro che questo tipo di soluzione venga più ampiamente studiato da psicoterapeuti e psichiatri, al fine di provare (o meno) la fattibilità e l’efficacia di questo tipo di risorsa terapeutica. Sarebbero in gioco questioni di privacy e diritti personali, il che fa sì che la questione estrapoli la portata morale e formi un dilemma nell’area del diritto. Spero che nei prossimi mesi o anni ci saranno altre novità in merito.