Quante volte al giorno interagiamo con Alexa, Siri o altri assistenti vocali? Probabilmente più di quante pensiamo. E c’è un dettaglio che forse ci è sfuggito: quasi tutti hanno nomi e voci femminili. Non è una coincidenza, ma una scelta precisa che riflette e potenzialmente rafforza stereotipi di genere profondamente radicati nella nostra società. Un tema che merita attenzione, soprattutto considerando quanto questi assistenti digitali stiano diventando parte integrante della nostra quotidianità.
Indice
Perché si scelgono sempre voci femminili?
La risposta è un mix di psicologia e cultura: gli studi dimostrano che la maggior parte delle persone trova le voci femminili più gradevoli e affidabili, percependole come più calde ed empatiche rispetto a quelle maschili, ritenute invece più autorevoli e dominanti (Naim Zirau, 2021). C’è anche un aspetto pratico: la loro frequenza più alta le rende più chiare e comprensibili in ambienti rumorosi.
Ma non è solo questione di preferenze: questi assistenti digitali nascono per supportarci, rispondere alle domande e aiutarci nelle attività quotidiane, ruoli storicamente associati alle donne. Come ha evidenziato l’UNESCO in un rapporto del 2019, questa associazione automatica tra assistenza e femminilità rischia di rafforzare stereotipi di genere dannosi, suggerendo che le donne siano naturalmente predisposte a ruoli di supporto.
Marketing, stereotipi e il “women-are-wonderful effect”
Le aziende tech non sono immuni da questi preconcetti culturali. Microsoft, Apple, Amazon e Google hanno scelto voci femminili basandosi su test di mercato che mostravano come gli utenti interagissero più volentieri con esse. È il cosiddetto “women-are-wonderful effect”: un bias cognitivo che ci porta a vedere le donne come più gentili e disponibili, specialmente in contesti di assistenza.
Uno studio della North Carolina State University ha dimostrato che ci fidiamo di più delle voci femminili per consigli su salute e benessere, mentre preferiamo voci maschili per temi finanziari o tecnici. Laura Andina, Lead Product Manager di Sourceful, ha evidenziato come questa tendenza si rifletta anche nei nomi degli assistenti (Alexa, Siri, Cortana), rafforzando l’associazione tra femminilità e subordinazione.
Un aspetto particolarmente preoccupante riguarda l’impatto sui bambini, che crescono abituati a impartire ordini a voci femminili, interiorizzando inconsciamente questi stereotipi. Video sui social mostrano insegnanti chiamate “Alexa” dai propri studenti, un segnale di come questi dispositivi influenzino la percezione dei ruoli di genere fin dalla giovane età.
Verso un futuro più inclusivo: cosa possiamo fare?
Il cambiamento parte dalla consapevolezza, ma richiede azioni concrete. Come utenti, possiamo iniziare scegliendo voci alternative quando disponibili e facendo sentire la nostra voce quando notiamo stereotipi evidenti, ricordando che gli algoritmi sono creati da esseri umani e riflettono quindi i loro pregiudizi.
e aziende stanno muovendo i primi passi, etichettando le voci con numeri anziché “maschile” o “femminile” o, in generale, introducendo opzioni più neutre. Un’innovazione interessante è “Q”, la prima voce sintetizzata di genere neutro, presentata nel 2019 come alternativa agli assistenti vocali tradizionali.
Ma serve di più: gli esperti suggeriscono di evitare nomi femminili per gli assistenti digitali, favorire ambienti di lavoro con leadership diversificata e valutare attentamente se i prodotti tech rinforzino stereotipi di genere. Solo con un impegno collettivo – di aziende, sviluppatori e utenti – potremo creare una tecnologia che rifletta una società più equa e inclusiva.