Abbattiamo gli stereotipi di genere, una risposta alla volta

iGenius
10 febbraio 2021
4 minuti di lettura
La tecnologia e l'intelligenza artificiale hanno indubbiamente semplificato la nostra vita personale e professionale.
A casa, gli assistenti vocali ci aiutano a cucinare e ci consigliano come evitare il traffico per andare al lavoro. La tecnologia e l'intelligenza artificiale ci supportano sempre di più anche al lavoro, soprattutto durante i giorni di lockdown, quando i team lavorano da remoto in tutto il mondo.
Anche il modo in cui interagiamo con la tecnologia si è evoluto: digitiamo sempre meno e parliamo di più con i nostri dispositivi - secondo il Future Today Institute, entro il 2021 la metà delle interazioni degli esseri umani con le macchine avverrà utilizzando la voce anziché la tastiera.

Problemi etici nelle voci IA

L'interazione vocale con i nostri dispositivi ha semplificato l'interfaccia e l'esperienza dell'utente, rendendo l'accesso alla tecnologia più facile per chiunque. Ma ha anche sollevato questioni etiche, come i pregiudizi di genere nell'intelligenza artificiale.
Il rapporto dell'UNESCO ha evidenziato che la proliferazione di assistenti vocali AI "sviluppati da team prevalentemente maschili" e per lo più "progettati come giovani donne" potrebbe perpetuare pregiudizi di genere dannosi e ampliare i divari di genere già esistenti.
Secondo il rapporto, le assistenti IA di genere femminile "rafforzano i pregiudizi di genere comunemente diffusi, secondo i quali le donne sono sottomesse e tollerano un trattamento inadeguato".
Poco meno di un anno fa, abbiamo scritto un post sul blog sull'importanza di avere un team di sviluppo internazionale e diversificato dietro l'intelligenza artificiale.
Da allora abbiamo lavorato molto per dare forma al nostro consulente IA, all'interfaccia vocale di Crystal e alla user experience.
Soprattutto, nella progettazione degli Intenti generici di Crystal, cioè il modo in cui risponde alle domande degli utenti che non sono legate allo scopo principale dell'interazione.
crystal è il nostro consulente IA per la data intelligence, quindi tutte le domande che vanno oltre l'analisi dei dati - da "come stai oggi" a un meno appropriato "cosa indossi?" - rientrerebbero nell'ambito degli intenti generici.

La competenza serve a creare fiducia negli utenti

Il nostro team di Conversational Design ha contribuito a creare il personaggio del nostro consulente AI, ovvero il modo in cui si presenta e il suo tono di voce quando interagisce con gli utenti.
"La nostra IA, Crystal, non è un'assistente. È una consulente per la data intelligence", afferma Anna Do Amaral, Conversational Designer di iGenius.
La maggior parte dei consulenti IA tende a essere di genere maschile - dimostrando autorevolezza - mentre gli assistenti di IA servili sono solitamente di genere femminile.
"Quando abbiamo modellato la personalità di Crystal, ci siamo concentrati sulla competenza, piuttosto che sul servilismo", ha aggiunto Arianna Stefanoni, Head of Conversational Design. "Crystal non è un passo indietro rispetto agli utenti, rispondendo alle loro esigenze. Lavora fianco a fianco con loro, supportandoli nell'analisi dei dati".
"La chiave per costruire la fiducia degli utenti nelle capacità della nostra consulente IA è l'accuratezza degli insight basati sui dati che fornisce loro", continua Stefanoni. "Questo dipende dalla tecnologia che c'è dietro, ma l'interfaccia conversazionale di Crystal deve riflettere la sua competenza e il suo linguaggio deve mostrarsi all'altezza dei suoi utenti".
"Nel dare forma alla personalità di Crystal, ci siamo concentrati sul suo rapporto con l'utente, basato sulla parità", ha aggiunto il Conversational Designer Stefano Calabrò. "Volevamo che gli utenti vedessero Crystal come una vera e propria collega, una persona di cui fidarsi, su cui fare affidamento, con cui anche scherzare, ma sempre in modo rispettoso e professionale".

Intenti generici: risposte giuste a domande sbagliate

Il rapporto dell'UNESCO era intitolato I'd Blush If I Could, un riferimento a una prima risposta - ora rimossa - che Siri, l'assistente virtuale di Apple, avrebbe dato quando i suoi utenti avevano subito molestie sessuali.
Se le domande poste dagli utenti a un'assistente virtuale - o a una consulente, nel nostro caso - sono pertinenti allo scopo dell'interazione, il tone of voice e le scelte linguistiche nella risposta dell'intelligenza artificiale sono relativamente semplici.
I problemi sorgono quando gli utenti pongono domande non correlate e talvolta inappropriate. È qui che entrano in gioco gli intenti generici.
"crystal non si scompone quando le domande fanno riferimento anche solo in minima parte al genere, al sesso o alla vita privata", aggiunge Do Amaral. "Al contrario, riporta la conversazione allo scopo dell'interazione consulente-utente: i dati. E lo fa con gentilezza e intelligenza".
"Non esistono stereotipi quando si parla di data insights".
Così, ad esempio, se un utente chiedesse a crystal qualcosa come: "Ti piacciono gli uomini o le donne?", crystal risponderebbe: 'Onestamente, preferirei non parlarne - torniamo ai tuoi dati!"
Un altro esempio potrebbe essere quello degli utenti frustrati: potrebbero dirle "crystal, sei inutile", o peggio.
La sua posizione sarebbe ancora una volta quella di non scomporsi, e la sua risposta: 'Ecco la mia analisi: 100% inappropriato. Torniamo ai tuoi dati!".


Storie simili