Microsoft interrompe la vendita di tecnologia di lettura delle emozioni e limita l’accesso agli strumenti di riconoscimento facciale

Microsoft interrompe la vendita di tecnologia di lettura delle emozioni e limita l’accesso agli strumenti di riconoscimento facciale

Microsoft ha confermato che ritirerà il software che valuta lo stato emotivo di una persona elaborando la sua immagine. Inoltre, la società limiterà anche l’accesso alla sua tecnologia di riconoscimento facciale.

Seguendo l’esempio di Google, Microsoft sta ponendo fine alla vendita della tecnologia di lettura delle emozioni. La società limiterà anche l’accesso “senza restrizioni” alla tecnologia di riconoscimento facciale. I clienti esistenti avranno solo un anno prima di perdere l’accesso ad Azure Face, una suite di strumenti di intelligenza artificiale (AI) che tentano di determinare emozioni, sesso, età, sorriso, peli sul viso, capelli e trucco. Parlando di sviluppo , Sarah Bird, Principal Product Manager, Microsoft Azure AI Group, ha dichiarato:

Questi sforzi hanno sollevato importanti interrogativi sulla privacy, la mancanza di consenso sulla definizione di “emozione” e l’incapacità di generalizzare la relazione tra l’espressione facciale e lo stato emotivo tra casi d’uso, regioni e dati demografici.

Secondo quanto riferito, Microsoft sta esaminando se i sistemi di riconoscimento delle emozioni siano basati sulla scienza. Non è immediatamente chiaro cosa intendesse Microsoft. Tuttavia, è possibile che l’azienda non sia riuscita a perfezionare gli algoritmi che indovinano lo stato emotivo di una persona dall’immagine. Inoltre, l’azienda può rafforzare la sua argomentazione contro le nuove regole e regolamenti sull’uso di tali strumenti.

Oltre a porre fine alla vendita della tecnologia di lettura delle emozioni, Microsoft sta anche ponendo fine all’accesso illimitato alla sua tecnologia di riconoscimento facciale. L’azienda ha indicato che i clienti che utilizzano le sue tecnologie di riconoscimento facciale devono ottenere un’autorizzazione preventiva. Chiaramente, i clienti Microsoft devono avere obblighi contrattuali. Tuttavia, non è chiaro se Microsoft stia imponendo ulteriori restrizioni o semplicemente chiedendo alle aziende di firmare un disclaimer sollevando Microsoft da qualsiasi sanzione legale associata a qualsiasi uso improprio.

Per ora, Microsoft ha semplicemente chiesto ai suoi clienti di “evitare situazioni che violano la privacy o dove la tecnologia potrebbe fallire”. Un ovvio obiettivo giuridicamente discutibile è l’identificazione dei minori. Per inciso, Microsoft non vieta specificamente tale utilizzo.

Microsoft pone anche alcune restrizioni sulla sua funzionalità Voce neurale personalizzata, che consente ai clienti di creare voci AI basate su registrazioni di persone reali .

Lascia un commento

Il tuo indirizzo email non sarà pubblicato. I campi obbligatori sono contrassegnati *