Rompere gli stereotipi di genere, una risposta alla volta

Rompere gli stereotipi di genere, una risposta alla volta
iGenius
10 febbraio 2021
-
4
Minuti

La tecnologia e l'intelligenza artificiale hanno indubbiamente semplificato la nostra vita personale e professionale.

A casa, gli assistenti vocali ci aiutano a cucinare e ci consigliano come evitare il traffico per andare al lavoro. La tecnologia e l'intelligenza artificiale ci supportano sempre di più anche al lavoro, soprattutto durante i giorni di blocco, quando i team lavorano in remoto in tutto il mondo.

Anche il modo in cui interagiamo con la tecnologia si è evoluto: digitiamo sempre meno e parliamo di più con i nostri dispositivi - secondo il Future Today Institute, entro il 2021 la metà delle interazioni degli esseri umani con le macchine avverrà utilizzando la voce anziché la tastiera.

Problemi etici in AI voci

L'interazione vocale con i nostri dispositivi ha semplificato l'interfaccia e l'esperienza dell'utente, rendendo l'accesso alla tecnologia più facile per chiunque. Ma ha anche sollevato questioni etiche, come i pregiudizi di genere nell'intelligenza artificiale.

Il rapporto dell'UNESCO ha evidenziato che la proliferazione di assistenti vocali AI "sviluppati da team prevalentemente maschili" e in gran parte "progettati come giovani donne" potrebbe perpetuare pregiudizi di genere dannosi e ampliare i divari di genere già esistenti.

Secondo il rapporto, le assistenti donne di AI "rafforzano i pregiudizi di genere comunemente diffusi, secondo i quali le donne sono sottomesse e tollerano un trattamento inadeguato".

Poco meno di un anno fa, abbiamo scritto un post sul blog sull'importanza di avere un team di sviluppo internazionale e diversificato dietro l'intelligenza artificiale.

Da allora abbiamo lavorato molto per dare forma al nostro consulente AI , all'interfaccia vocale di crystale all'esperienza utente.

Soprattutto, nella progettazione degli Intenti generici di crystal, cioè il modo in cui risponde alle domande degli utenti che non sono legate allo scopo dell'interazione con l'utente.

crystal è il nostro consulente AI per l'intelligence dei dati, quindi tutte le domande che vanno oltre l'analisi dei dati - da "come stai oggi" a un meno appropriato "cosa indossi?" - rientrerebbero nell'ambito degli Intenti generici.

La competenza come mezzo per costruire la fiducia degli utenti

Il nostro team di Conversational Design ha contribuito a definire la persona del nostro consulente AI , ovvero il modo in cui si proietta e il suo tono di voce quando interagisce con gli utenti.

"Il nostro AI, crystal, non è un'assistente. È un consulente per l'intelligenza dei dati", afferma Anna Do Amaral, Conversational Designer di iGenius.

La maggior parte dei consulenti di AI tende a essere di sesso maschile - proiettando autorevolezza - mentre i servili assistenti di AI sono solitamente di sesso femminile.

"Nel costruire il personaggio di crystalci siamo concentrati sulla competenza, piuttosto che sul servilismo", ha aggiunto Arianna Stefanoni, responsabile del design conversazionale. "crystal non è un passo indietro rispetto agli utenti, rispondendo alle loro esigenze. Lavora fianco a fianco con loro, supportandoli nell'analisi dei dati".

"La chiave per costruire la fiducia degli utenti nelle capacità del nostro consulente AI è l'accuratezza degli approfondimenti basati sui dati che fornisce loro", continua Stefanoni. "Questo dipende dalla tecnologia, ma l'interfaccia conversazionale di crystaldeve riflettere la sua competenza e il suo linguaggio deve suggerire lo stesso peso dei suoi utenti".

"Nel delineare il personaggio di crystalci siamo concentrati sul suo rapporto con l'utente, basato sulla parità", ha aggiunto il Conversational Designer Stefano Calabrò. "Volevamo che gli utenti vedessero crystal come una vera e propria collega, una persona di cui fidarsi, su cui fare affidamento, con cui anche scherzare, ma sempre in modo rispettoso e professionale".

Intenti generici: risposte giuste a domande sbagliate

Il rapporto dell'UNESCO era intitolato I'd Blush If I Could, un riferimento a una prima risposta - ora rimossa - che Siri, l'assistente virtuale di Apple, dava quando veniva molestata sessualmente dai suoi utenti.

Se le domande poste dagli utenti all'assistente virtuale - o al consulente, nel nostro caso - sono pertinenti allo scopo dell'interazione, il tono di voce e le scelte linguistiche nella risposta di AIsono relativamente semplici.

I problemi sorgono quando gli utenti pongono domande non correlate e talvolta inappropriate. È qui che entrano in gioco gli intenti generici.

"crystal non si impegna quando le domande fanno riferimento anche solo in minima parte al genere, al sesso o alla vita privata", aggiunge Do Amaral. "Al contrario, riporta la conversazione allo scopo dell'interazione consulente-utente: i dati. E lo fa con gentilezza e arguzia".

"Non esistono stereotipi quando si parla di data insight".

Così, ad esempio, se un utente chiedesse a crystal qualcosa come: "Ti piacciono gli uomini o le donne?", crystal risponderebbe: "Onestamente, preferirei non parlarne - torniamo ai tuoi dati!".

Un altro esempio potrebbe essere quello degli utenti frustrati: 'crystal, sei inutile', potrebbero dire (o peggio).

La sua posizione sarebbe ancora una volta quella di non impegnarsi, e la sua risposta: 'Ecco la mia analisi: è stata inappropriata al 100%. Torniamo ai tuoi dati!".


Leggi l'articolo
Leggi l'articolo
Condividi questo post

Don't Search.
Ask.

Dati chiari in tempo reale, sempre.
ESPLORA CRYSTAL

Puoi fornirmi i costi totali di produzione nel tempo?

Mostrami i dati di vendita dal 1° al 2° trimestre di Diana Reuters.

Mostrami la classifica degli agenti in base alle vendite.

Avvisami se ci sono cambiamenti nella classifica dei prodotti.