Microsoft come Black Mirror: un software per parlare con le persone decedute

Microsoft come Black Mirror: un software per parlare con le persone morte
Microsoft vuole creare un software che riesca a simulare la personalità di un vero essere umano e consentire, per esempio, di parlare con qualcuno che non c'è...

OFFERTA SPECIALE

2 ANNI
99,98€
40€
Per 2 anni
SCEGLI ORA
OFFERTA FLASH
ANNUALE
49,99€
19€
Per 1 anno
SCEGLI ORA
 
MENSILE
4,99€
1€ AL MESE
Per 3 mesi
SCEGLI ORA

OFFERTA SPECIALE

OFFERTA SPECIALE
MENSILE
4,99€
1€ AL MESE
Per 3 mesi
SCEGLI ORA
 
ANNUALE
49,99€
11,99€
Per 1 anno
SCEGLI ORA
2 ANNI
99,98€
29€
Per 2 anni
SCEGLI ORA
OFFERTA SPECIALE

Tutto il sito - Mese

6,99€ 1 € al mese x 12 mesi

Poi solo 4,99€ invece di 6,99€/mese

oppure
1€ al mese per 3 mesi

Tutto il sito - Anno

79,99€ 9,99 € per 1 anno

Poi solo 49,99€ invece di 79,99€/anno

Microsoft vuole creare un software che riesca a simulare la personalità di un vero essere umano e consentire, per esempio, di parlare con qualcuno che non c'è più, utilizzando le informazioni personali delle persone decedute. Secondo il sito Ubergizmo, l'azienda di Redmond ha depositato un brevetto negli Stati Uniti per consentire ad un programma, un chatbot, di parlare come una persona vivente, copiando stili e schemi di comunicazione.

I chatbot sono software già utilizzati dalle aziende come risposta automatica e assistenza ai clienti. Il programma, che richiama scenari simili alla serie tv distopica Black Mirror, attingerebbe alle informazioni private, ai dati sociali, al materiale relativo ad una data persona accessibile tramite Pc, smartphone e social network. Il brevetto, se mai dunque venisse applicato, implicherebbe anche problemi di protezione di dati personali.

 

E' un'idea in qualche modo già messa in campo da Microsoft circa cinque anni fa quando ha lanciato Tay, un chatbot per Twitter che doveva simulare una teenager. Un esperimento di Intelligenza artificiale che aveva come obiettivo quello di avviare e sostenere conversazioni con i millennial. Ma l'esperimento è durato solo poche ore, un lasso di tempo in cui Tay ha imparato il razzismo, a inneggiare a Hitler e a fare avance agli interlocutori. A quel punto è stata spenta.

Leggi l'articolo completo su
Il Mattino