Smashing Podcast Episodio 41 con Eva PenzeyMoog: Progettare per la sicurezza

Pubblicato: 2022-03-10
Riassunto veloce ↬ In questo episodio parliamo di progettare per la sicurezza. Cosa significa considerare gli utenti vulnerabili nei nostri progetti? Drew McLellan parla con l'esperta Eva PenzeyMoog per scoprirlo.

In questo episodio parliamo di progettare per la sicurezza. Cosa significa considerare gli utenti vulnerabili nei nostri progetti? Drew McLellan parla con l'esperta Eva PenzeyMoog per scoprirlo.

Mostra note

  • Design per la sicurezza da un libro a parte
  • Il progetto sicurezza inclusiva
  • Eva su Twitter
  • Il sito personale di Eva

Aggiornamento settimanale

  • Come costruire un sito di e-commerce con Angular 11, Commerce Layer e Paypal scritto da Zara Cooper
  • Refactoring CSS: strategia, test di regressione e manutenzione scritto da Adrian Bece
  • Come creare interfacce utente JavaScript resilienti scritte da Callum Hart
  • Reagire bambini e metodi di iterazione scritti da Arihant Verma
  • Modelli di design frustranti: pulsanti disabilitati scritti da Vitaly Friedman

Trascrizione

Foto di Eva PenzeyMoog Drew McLellan: È la fondatrice di The Inclusive Safety Project, autrice del libro Designed For Safety, lanciato questo mese da A Book Apart. È la principale designer di 8th Light, dove progetta e realizza software personalizzati e fornisce consulenza su una strategia di progettazione sicura e inclusiva. Sappiamo che è un'esperta nella progettazione di tecnologie per proteggere i vulnerabili, ma lo sapevi che è la detentrice del record internazionale per il maggior numero di ciambelle eseguite su un carrello elevatore? Miei formidabili amici, per favore, diamo il benvenuto, Eva PenzeyMoog. Ciao Eva, come stai?

Eva PenzeyMoog: Sto distruggendo.

Drew: È bello sentirlo. Volevo parlarti oggi dei principi della progettazione di prodotti ed esperienze tenendo conto della sicurezza degli utenti vulnerabili. Sarebbe giusto fin dall'inizio dare una sorta di avvertimento per qualsiasi argomento particolare che potremmo toccare?

Eva: Assolutamente sì. Grazie per averlo sollevato. Sicuramente innescare un avvertimento per menzioni esplicite di violenza domestica, forse anche alcuni abusi sugli anziani e abusi sui minori.

Drew: È importante. Sentiti libero. Se ti preoccupi di uno di questi problemi, potrebbe essere un fattore scatenante per te. Sentiti libero di saltarli. Ci vediamo al prossimo episodio. Inquadra la conversazione per noi, Eva. Quando parliamo di Design For Safety, di che tipo di problemi di sicurezza stiamo parlando? Non stiamo parlando di interfacce per auto a guida autonoma. Non è quel tipo di sicurezza, vero?

Eva: Esatto, esatto. Sì. Quando parlo di sicurezza, parlo davvero di sicurezza interpersonale, i modi in cui gli utenti possono armare i nostri prodotti per danneggiarsi a vicenda in modo interpersonale. Persone che si conoscono, convivono, tanta violenza domestica da parte di partner romantici, ma anche genitori e figli. C'è anche un po' di datori di lavoro e dipendenti più nel regno della sorveglianza. Ma c'è quella reale relazione personale interiore richiesta in termini di sicurezza di cui sto parlando, al contrario di, sì, qualcuno anonimo su Internet o qualche entità anonima che cerca di ottenere i tuoi dati, cose del genere.

Drew: Potrebbero essere problemi così semplici come... Penso a tutti i giorni che vedi sui social network dove c'è la possibilità per diversi utenti di scambiarsi messaggi diretti e come dovrebbe essere un piccolo strumento utile per consentire alle persone di conversare offline o fuori dal pubblico. Ma quel genere di cose potrebbe anche, senza le giuste tutele, essere vettore di una sorta di abuso di controllo.

Eva: Sì, assolutamente. Sicuramente ogni volta che consenti agli utenti di inviarsi qualsiasi tipo di testo l'un l'altro, c'è la possibilità di abusi. La messaggistica di Facebook, quella è un po' più ovvia, e penso... Bene, spero che abbiano delle protezioni in atto per riconoscere che forse non vuoi vedere certi messaggi o vuoi che qualcuno ti contatti. Ma uno che è davvero interessante e correlato che mi sono imbattuto durante la ricerca è un sacco di diverse applicazioni bancarie o servizi come Venmo che ti consentono di condividere denaro. Spesso c'è uno spazio per un messaggio. Almeno con Venmo, è obbligatorio.

Eva: In alcune banche è facoltativo, ma le persone invieranno un centesimo a qualcuno e poi avranno un messaggio offensivo o qualcosa di veramente dannoso, spaventoso o minaccioso, e non c'è davvero un modo per l'utente che riceve quei messaggi di segnalarlo o di dire, "Voglio bloccare questo utente, perché vorresti impedire a qualcuno di inviare denaro da te?" Questa è una situazione in cui penso che il designer semplicemente non abbia considerato che chi abusa è sempre alla ricerca di modi per fare cose del genere. Sono molto creativi e non è stato considerato nel design.

Drew: Parliamo spesso di progettare il percorso felice in cui tutto viene utilizzato come è progettato per essere utilizzato e l'esperienza procede senza intoppi. Quindi, come ingegneri, pensiamo a come le cose potrebbero andare storte in termini di convalida non riuscita o API inattive. Ma non ne sono sicuro... Come settore, abbiamo un grande punto cieco sui modi in cui le tecnologie potrebbero essere utilizzate in modo improprio quando si tratta di considerare la sicurezza dei nostri utenti?

Eva: Sì. Penso assolutamente che ci sia un gigantesco punto cieco. Le persone hanno molta familiarità con questo tipo di vari modelli di minaccia, come ho già detto, della persona anonima che ti molesta su Twitter, entità diverse che cercano di hackerare i dati di una società bancaria, cose del genere. Ma lo chiamiamo il modello di minaccia della violenza domestica, che è molto diverso ed è uno a cui la maggior parte delle persone non pensa e questo è sempre stato il feedback quando ho fatto il mio discorso, progettando contro la violenza domestica prima che la pandemia interrompesse le conferenze . Questo è sempre stato il feedback, è la gente che dice: "Non ne avevo mai sentito parlare. Non ne avevo idea." Questo è l'obiettivo con il mio discorso, il mio libro e il mio lavoro in generale è aiutare le persone a capire di cosa si tratta e cosa fare al riguardo perché è qualcosa che è solo un enorme punto cieco.

Drew: Penso che abbiamo una tendenza, e ovviamente è pericoloso presumere che ogni utente sia proprio come noi. Proprio come le persone che stanno costruendo il servizio o il prodotto, proprio come i nostri soldati, come i nostri amici e la nostra famiglia e le persone che conosciamo, e presumere che tutti si trovino in una situazione familiare stabile e abbiano la piena proprietà o il controllo dei loro servizi e dispositivi. Non è sempre così, vero?

Eva: Sì, assolutamente. Sicuramente non sempre è così. Penso che potremmo guardare i nostri amici e la nostra famiglia e pensare che tutti abbiano una buona relazione, ma qualcosa che ho scoperto è che sicuramente la maggior parte delle persone che subiscono violenza domestica non lo dicono esattamente a tutti nella loro vita e lo gridano da i tetti. La maggior parte delle persone, basandosi solo sulle statistiche, è così comune. Probabilmente conosci qualcuno che è stato in quella situazione o si trova attualmente in quella situazione, e semplicemente non ne sta parlando davvero o forse non sta condividendo l'intera portata del comportamento.

Eva: In molti modi, è comprensibile che non sia qualcosa a cui le persone hanno davvero pensato sul posto di lavoro perché non è qualcosa a cui pensiamo nella società e nella vita in generale e lo riproduciamo sul posto di lavoro. Il mio lavoro sta cercando di indurci a parlarne un po' più esplicitamente.

Drew: Quali sono alcune delle cose a cui dovremmo pensare quando si tratta di queste considerazioni? Solo pensando a quando qualcun altro potrebbe avere accesso al tuo account, o se un partner conosce la tua password e può entrare, penseresti che i prodotti sono stati progettati per essere controllati da una sola persona, ma ora forse qualcuno nefasto vi sta accedendo. Che tipo di considerazioni ci sono?

Eva: Sì. Bene, ci sono così tante cose diverse, ma quella è davvero grande che ho... Tre capitoli principali del mio nuovo libro sono incentrati sulle tre grandi aree diverse in cui ciò accade, e quello che hai appena menzionato è il focus di uno dei loro sui problemi di controllo e alimentazione con prodotti progettati per più persone. Cose come un conto bancario condiviso, cose come Netflix o Spotify, cose come tutti i tipi di dispositivi domestici diversi, dispositivi Internet of Things, che sono apparentemente pensati per più persone. Ma c'è il presupposto che ognuno sia una persona rispettosa che non sta cercando di trovare un altro modo per esercitare potere e controllo sulle persone che li circondano.

Eva: Molti conti bancari congiunti o cose come il servizio di carte di credito condivise si mascherano come conti congiunti, ma in realtà una persona ha più potere. Ad esempio, è successo a me ed è stato davvero frustrante perché gestisco la maggior parte delle finanze del mio matrimonio. Ma quando abbiamo aperto il nostro primo conto bancario congiunto anni fa, hanno impostato mio marito come utente principale, il che sostanzialmente significava che erano i suoi dati pubblicamente disponibili che venivano usati per creare un quiz sulla sicurezza. Quando accedo alla nostra banca da una nuova rete Wi-Fi, devo chiedergli come in quale di queste strade vivevi quando eri un bambino? In realtà sono per lo più... Ad alcuni posso rispondere.

Eva: So che non ha mai vissuto in California, ma molti di loro sono davvero bravi, e devo chiederglielo anche se stiamo insieme da molto tempo. Sono piuttosto efficaci nel tenere fuori qualcuno. Ma è come se questo dovesse essere un conto cointestato, perché in realtà è... In realtà è solo un conto per lui a cui ho accesso anche io. Un sacco di problemi con ciò in cui consentono a qualcuno di avere più controllo perché semplicemente non potrebbe darmi le risposte e quindi non avrei accesso alle nostre finanze senza dover chiamare la banca o passare attraverso qualcosa e passare attraverso un processo diverso. Sì. Un sacco di problemi diversi con il controllo.

Eva: Penso che ogni volta che stai progettando un prodotto che coinvolgerà più utenti, rifletti su come un utente lo userà per controllare un'altra persona, e poi come possiamo mettere delle salvaguardie a questo, facendo in modo che una persona non ha il controllo. Se ciò non è possibile, come possiamo almeno assicurarci che l'altra persona capisca esattamente cosa sta succedendo e sappia esattamente come riprendere il potere? Possiamo dare loro un numero da chiamare, una sorta di impostazione da modificare? Qualunque cosa sia, tutto diventa un po' complicato.

Eva: Ho un intero processo nel libro su come appare in pratica, qualcosa di un po' più specifico rispetto alla semplice considerazione della violenza domestica o alla semplice considerazione di chi ha il controllo. Non trovo questo tipo di consiglio super utile. Ho un processo molto approfondito che i designer possono inserire in aggiunta al loro effettivo processo di progettazione esistente per ottenere alcune di queste cose.

Drew: Immagino, dove hai questi account ... Avere un account è un concetto così comune. Stiamo costruendo prodotti o servizi in cui l'elemento fondamentale è, ok, abbiamo un account utente. Probabilmente non pensiamo nemmeno troppo da vicino al tipo di problemi quando lo configuriamo e pensiamo che l'account sia diverso dalle persone che sono responsabili dell'account? Spesso, sono considerati solo un'entità, e quindi devi aggiungere altre entità ad essa per creare conti congiunti e quel genere di cose. Ma considerando anche la questione di cosa succede a quell'account se due persone si separano, come può essere diviso in futuro? È qualcosa a cui dovremmo pensare fin dall'inizio?

Eva: Sì, assolutamente. Questo è davvero un buon punto che sollevi. Penso che una delle cose su cui mi sento davvero fortemente è che quando concentriamo i sopravvissuti a diversi tipi di abusi nel nostro design, finiamo per realizzare prodotti che sono migliori per tutti. Ho intervistato un discreto numero di persone in particolare sull'elemento dell'abuso finanziario, che è molto comune nei contesti di violenza domestica. La statistica è che il 99% delle persone in una relazione di violenza domestica, c'è qualche elemento di abuso finanziario che è davvero comune. Ma ho anche finito per intervistare alcune persone che avevano tragicamente perso il coniuge, una persona era morta e avevano un conto cointestato.

Eva: È come un bel... È uno scenario molto comune, purtroppo, ma non è qualcosa che molti di questi prodotti sono progettati per gestire, e possono volerci anni per ottenere effettivamente il pieno controllo su un account condiviso o su qualcosa come... Quando mia nonna è morta, aveva molta preveggenza e aveva dato a mio padre l'accesso a tutto. Ma anche con questo, gli ci è voluto ancora molto tempo per mettere tutto a posto, perché questi prodotti non sono progettati per gestire cose del genere. Ma se dovessimo centrare i sopravvissuti e pensare, sì, che aspetto ha quando due persone si separano ed essere in grado di gestirlo in modo efficace, ciò alla fine aiuterebbe un gruppo di altre persone in altre situazioni.

Drew: Pensiamo molto al processo di onboarding, alla creazione di nuovi account e al coinvolgimento delle persone in un prodotto, e poi dimentichiamo di considerare cosa succede quando se ne vanno con qualsiasi mezzo, se purtroppo muoiono o come viene arrotondato al altra estremità del processo. Penso che sia qualcosa che non ottiene l'attenzione di cui potrebbe davvero trarre vantaggio.

Eva: Sì.

Drew: Portiamo i telefoni in tasca e sono dispositivi molto personali e spesso sono letteralmente le chiavi del nostro accesso alle informazioni, alle finanze e alla comunicazione. In una situazione negativa, potrebbe facilmente... Il fatto che sia un dispositivo così personale può diventare un vettore di controllo e abuso. Basta pensare a cose come i servizi di localizzazione, servizi come Dov'è di Apple, il che è fantastico se hai bambini in età scolare e puoi fare il check-in e vedere dove sono, vedere che sono dove dovrebbero, sono al sicuro . È una caratteristica di sicurezza in molti modi, ma quella caratteristica può essere sovvertita, no?

Eva: Sì, assolutamente. Sì, e sono felice che tu ne parli perché molti di questi prodotti sono dispositivi di sicurezza per i bambini. Sì, certo, i genitori vogliono sapere dove sono i loro figli, vogliono assicurarsi che siano al sicuro e questo può essere uno strumento davvero efficace. Penso che ci siano molti problemi con i genitori che abusano di questi prodotti. Ho trovato alcuni casi di studenti universitari che sono ancora controllati dai genitori e riceveranno una chiamata se vanno a una festa fuori dal campus, come perché non sei nella tua stanza del dormitorio? Cose del genere. Può diventare troppo. Ma sì, per la maggior parte, quelli sono ottimi prodotti. Ma molte persone poi li usano in modo improprio per rintracciare gli adulti che non acconsentono al rilevamento della loro posizione, e molte volte anche loro...

Eva: Devi entrare nel servizio come con Google Maps, ad esempio, la condivisione della posizione. Devi approfondirlo per vedere che lo stai condividendo con qualcuno. Non c'è avviso. Simile a Trova il mio. L'utente la cui posizione viene tracciata riceve un avviso, ma in una situazione di violenza domestica è davvero facile per l'aggressore eliminare semplicemente l'avviso dal telefono della persona prima che possa vederlo, e quindi non c'è davvero un altro modo in cui quella persona si renderà conto che sta anche accadendo. Penso che sia un buon esempio di qualcosa che i casi di abuso semplicemente non vengono presi in considerazione quando creiamo cose che in definitiva riguardano la sicurezza per i bambini. Ma dobbiamo renderci conto che ci sono un sacco di persone là fuori che lo useranno per non bambini in questi altri contesti.

Drew: Suppongo che in una relazione tu possa dare il consenso affinché la tua posizione venga rintracciata abbastanza volentieri in un determinato momento, e poi potresti non capire che ciò continua, e potresti non essere consapevole che sta ancora succedendo e tu sei essere rintracciato senza rendersene conto.

Eva: Sì. Questa è una cosa davvero importante da considerare perché all'interno di relazioni abusive, non è come... L'abuso non inizia il primo giorno, per la maggior parte. Di solito è una relazione davvero fantastica all'inizio, poi lentamente introducono diverse forme di controllo e prendono il potere e rimuovono la persona dalla loro rete di supporto, e tutto questo accade nel tempo, spesso nel corso degli anni, perché se hai appena iniziato a farlo su al primo appuntamento, la maggior parte delle persone diceva "Sì, no, sono fuori". Ma una volta che c'è questa relazione d'amore, diventa molto più difficile lasciare quella persona.

Eva: Ma sì, molte volte le cose che erano assolutamente sicure da fare all'inizio della relazione non sono più sicure, ma la persona ha dimenticato da tempo di aver condiviso la propria posizione con questa persona, e poi di nuovo non c'è niente di buono modo per essere ricordato. Ci sono alcune cose come il loro merito, Google invia un'e-mail ogni 30 giorni, anche se alcune persone hanno detto che in realtà non le ricevono così frequentemente, e alcune persone lo fanno. Non sono sicuro di cosa stia succedendo esattamente, ma inviano un'e-mail di riepilogo con queste sono tutte le persone con cui condividi la tua posizione, il che è davvero fantastico.

Eva: Ma penso che si possano fare molti danni in 30 giorni. Preferirei qualcosa che è più frequente o anche una cosa onnipresente che ti fa sapere che questo sta accadendo, o qualcosa che sta accadendo più frequentemente, quindi consentirebbe all'autore di abusi di eliminare semplicemente quella notifica. Sì, è davvero un buon punto, è il consenso. Sono molte le cose che derivano dalle pratiche di consenso alle aggressioni sessuali. Penso che ci sia così tanta rilevanza per la tecnologia. Solo perché hai acconsentito a qualcosa in passato non significa che acconsenti ad essa ora o in futuro. Ma nella tecnologia, siamo tipo "Beh, hanno acconsentito cinque anni fa, quindi quel consenso è ancora valido", e non è proprio così. Dovremmo ottenere di nuovo il loro consenso più tardi.

Drew: Sì, presenta tutti i tipi di sfide, vero? Nel modo in cui queste cose sono progettate, perché non vuoi mettere così tanti ostacoli nella progettazione di un prodotto che non diventi utile. O nel caso in cui stai rintracciando un bambino e quel giorno non si sono davvero riconsentiti e, all'improvviso, sono scomparsi e non hanno abilitato il servizio. Ma ancora una volta, assicurandosi che quel consenso vada avanti solo finché è veramente dato. Penso che sia abbastanza facile in un documento condiviso, se stai usando Google Documenti o altro, vedere chi sta guardando quel documento in quel momento, tutte le icone appaiono, se... Gli avatar di tutti i diversi utenti che erano lì e avere accesso. Pensavi che questo tipo di soluzioni potesse funzionare altrettanto bene quando le persone accedono alla tua posizione?

Eva: Sì, totalmente. Sì, diventa appiccicoso. Non ci sono molte soluzioni dirette e facili con queste cose, e le cose su, sì, vuoi ... Forse non è una buona idea lasciare che i tuoi bambini di otto anni diano il consenso ogni singolo giorno perché se un giorno dicono solo "No", o dicono erroneamente di no o altro, e poi all'improvviso non riesci a trovarli. Sì, è uno scenario reale. Penso che, con alcune di queste cose, è come se non fosse realistico dire: "Beh, questa produzione non dovrebbe esistere o dovresti ottenere il consenso ogni giorno".

Eva: Ma poi in quei casi, ci sono ancora cose che puoi fare come dire alla persona che questa persona, questo altro utente può vedere la sua posizione anche se non c'è molto da fare al riguardo. Per lo meno dare loro queste informazioni in modo che capiscano chiaramente cosa sta succedendo e quindi possano intraprendere azioni per proteggersi se si trovano in quella relazione abusiva, sarà davvero utile. Forse ora lo sanno, va bene, non porterò il telefono con me quando lascerò l'ufficio durante l'ora di pranzo per vedere la mia amica che il mio partner non approva perché mi chiede sempre di lasciare il relazione e lui avrebbe saputo che ero andato da qualche parte se avessi portato il mio telefono.

Eva: Ma se tengo il telefono in ufficio, allora non lo saprà. Essere in grado di prendere quel tipo di decisioni informate. Anche se non sei in grado di terminare necessariamente la condivisione della posizione, ci sono sicuramente altre cose che possiamo fare per proteggere gli utenti pur conservando le funzionalità principali del prodotto.

Drew: Sì. Si tratta di decisioni di progettazione, non è vero? E trovare soluzioni a problemi difficili, ma prima capire che il problema c'è e deve essere risolto, cosa che penso sia il punto in cui questa conversazione è così importante per comprendere i diversi modi in cui le cose vengono utilizzate. Sempre più spesso abbiamo dispositivi con microfoni e fotocamere. Abbiamo un sacco di telecamere di sorveglianza nelle nostre case e sui nostri campanelli, e la sorveglianza segreta non è più solo qualcosa da film di spionaggio e spettacoli di poliziotti, vero?

Eva: Sì. O si. È un problema così grande. Ho sentimenti molto forti su questa roba, e so che molte persone sono davvero interessate a questi dispositivi e penso che vada benissimo. Penso che siano molto usati in modo improprio per la sorveglianza. Penso che molti coniugi e membri della famiglia, ma anche molti... È qui che penso che entrare in affari con i bambini, almeno per me, diventa un po' più chiaro che anche i bambini hanno dei diritti alla privacy, e soprattutto quando guardi gli adolescenti hanno bisogno di molta più indipendenza e hanno bisogno di spazio, e c'è letteralmente roba sullo sviluppo del cervello in corso attorno all'indipendenza.

Eva: Penso che ci siano modi per aiutare i tuoi figli a essere al sicuro online e prendere buone decisioni, e anche per controllare a volte cosa stanno facendo senza che sia qualcosa in cui li guardi costantemente o ti inietti costantemente nelle loro vite in vari modi che non vogliono. Ma sì, la pletora di diversi dispositivi di sorveglianza è fuori controllo e le persone li usano continuamente per guardarsi di nascosto o nemmeno apertamente. A volte è fuori allo scoperto come: "Sì, ti sto guardando. Cosa hai intenzione di fare al riguardo? Non puoi perché siamo in questa relazione in cui ho scelto di usare la violenza per mantenere il mio potere e il controllo su di te.

Eva: Diventa davvero un grosso problema. Qualcosa in cui mi sono imbattuto molto sono le persone ... Diventa un altro modo per chi abusa di isolare il sopravvissuto dalla sua rete di supporto. Non puoi avere una conversazione telefonica privata con il tuo amico, tuo fratello o il tuo terapeuta. Improvvisamente, non c'è nessun posto nella tua casa che sia in realtà uno spazio privato, che è stato anche un grosso problema durante la pandemia in cui le persone sono costrette a stare a casa. Abbiamo assistito a un così grande aumento della violenza domestica, così come la violenza domestica facilitata dalla tecnologia perché gli abusatori hanno avuto più tempo per capire come fare queste cose, ed è uno spazio molto più piccolo che devono predisporre per il controllo. Molte persone lo hanno fatto. È stato davvero un grosso problema.

Drew: Mi aspetterei che i produttori di questo tipo di prodotti, telecamere di sorveglianza e quant'altro, dicessero: "Stiamo solo costruendo strumenti qui. Non abbiamo alcuna responsabilità su come vengono utilizzati. Non possiamo farci niente". Ma vorresti sostenere che, sì, hanno la responsabilità di come vengono utilizzati quegli strumenti?

Eva: Sì, lo farei. Prima di tutto, direi a qualcuno che ha detto: “Sei un essere umano prima di essere un impiegato di un'azienda tecnologica, un capitalista che fa soldi. Sei un essere umano e i tuoi prodotti stanno influenzando gli esseri umani e ne sei responsabile". La seconda cosa che direi è che pretendere un livello più alto di alfabetizzazione tecnologica dai nostri utenti è una mentalità davvero problematica da avere, perché è facile per quelli di noi che lavorano nel settore tecnologico dire: "Beh, le persone hanno solo bisogno di saperne di più a proposito. Non siamo responsabili se qualcuno non capisce come viene utilizzato il nostro prodotto".

Eva: Ma la maggior parte delle persone non lavora nella tecnologia e sono ancora, ovviamente, alcune persone davvero esperte di tecnologia là fuori che non lavorano nella tecnologia. Ma pretendere che le persone capiscano esattamente come ogni singola app che hanno, ogni singola cosa che stanno usando sul proprio telefono o laptop, ogni singolo dispositivo che hanno in casa, comprendendo ogni singola caratteristica e identificando i modi in cui potrebbe essere usato contro di loro, è un enorme fardello. Potrebbe non sembrare un grosso problema se stai solo pensando al tuo unico prodotto come, oh, beh, ovviamente, le persone dovrebbero prendersi il tempo per capirlo.

Eva: Ma stiamo parlando di dozzine di prodotti che stiamo affidando a persone che stanno attraversando una situazione pericolosa da capire, il che è solo molto irrealistico e piuttosto disumano, soprattutto considerando cosa fanno gli abusi, la sorveglianza e queste diverse cose al tuo cervello se sei costantemente in uno stato di minaccia e in questa modalità di sopravvivenza tutto il tempo. Il tuo cervello non sarà in grado di avere un funzionamento esecutivo completo oltre a capire, guardare questa app e cercare di identificare in che modo mio marito la sta usando per guardarmi o controllarmi o qualunque cosa sia. Direi che è davvero, onestamente, una pessima mentalità da avere e che siamo responsabili di come le persone usano i nostri prodotti.

Drew: Quando pensi che la maggior parte delle persone non capisca più di uno o due pulsanti sul proprio microonde, come possiamo aspettarci di comprendere le capacità e il funzionamento di tutte le diverse app e servizi con cui entriamo in contatto?

Eva: Assolutamente. Sì.

Drew: Quando si tratta di progettare prodotti e servizi, mi sento come un maschio etero bianco di lingua inglese che ho un enorme punto cieco a causa della posizione privilegiata che la società mi offre, e mi sento molto ingenuo e sono consapevole che potrebbe portare a scelte progettuali problematiche nelle cose che sto realizzando. Ci sono passaggi che possiamo intraprendere e un processo che possiamo seguire per assicurarci di esporre quei punti ciechi e fare del nostro meglio per uscire dal nostro regno di esperienza e includere più scenari?

Eva: Sì, assolutamente. Ho così tanti pensieri su questo. Penso che ci siano un paio di cose. In primo luogo, siamo tutti responsabili di informarci sui nostri punti ciechi. Tutti hanno punti ciechi. Penso che forse un maschio bianco cis ha più punti ciechi rispetto ad altri gruppi, ma non è che ci sia un gruppo che non avrà punti ciechi. Tutti li hanno. Penso di educare noi stessi sui diversi modi in cui la nostra tecnologia può essere utilizzata in modo improprio. Penso che sia più di... Ovviamente, la sicurezza interpersonale è la mia cosa su cui lavoro. Ma ci sono anche tutte queste altre cose, che cerco costantemente di imparare e di capire come posso assicurarmi che la tecnologia su cui sto lavorando non perpetui queste cose diverse.

Eva: Mi piace molto Design For Real Life di Sara Wachter-Boettcher ed Eric Meyer è fantastico per il design inclusivo e il design compassionevole. Ma poi ho anche imparato a conoscere algoritmi, razzismo e sessismo e diversi problemi con gli algoritmi. Ci sono così tante cose diverse che dobbiamo considerare e penso che siamo tutti responsabili dell'apprendimento di queste cose. Quindi penso anche che portare l'esperienza vissuta di persone che hanno vissuto queste cose una volta che hai identificato, ok, il razzismo sarà un problema con questo prodotto, e dobbiamo assicurarci di affrontarlo e cercando di prevenirlo e dando definitivamente modo alle persone di denunciare il razzismo o quello che hai.

Eva: Una delle cose, l'esempio che do nel mio libro è che Airbnb ha molti problemi con il razzismo e gli host razzisti. Anche solo lo studio se hai... Se la tua foto è di una persona di colore, ti verrà negato. La tua richiesta di prenotazione di un soggiorno verrà rifiutata più frequentemente che se nella tua foto hai una persona bianca. Penso di essere una persona bianca, è qualcosa che non credo di poter semplicemente andare a conoscere e poi parlare come un'autorità sulla questione. Penso che in tal caso, devi coinvolgere qualcuno con quell'esperienza vissuta che possa informarti, quindi assumere un consulente di designer nero perché ovviamente sappiamo che non c'è una grande diversità in realtà nella tecnologia.

Eva: Idealmente, avresti già persone nella tua squadra che potrebbero parlare con quello, ma penso... Ma poi è così complicato. È qui che entra in gioco chiediamo quel tipo di lavoro dai nostri compagni di squadra? Anche questo può essere problematico. La persona di colore della tua squadra probabilmente dovrà già affrontare molte cose diverse, e poi i bianchi diranno: "Ehi, parlami delle esperienze traumatiche che hai avuto a causa della tua razza". Probabilmente non dovremmo imporre quel tipo di onere sulle persone, a meno che...

Eva: Molte persone lo solleveranno volentieri e ne parleranno, e io parlerò delle cose, della mia esperienza di donna, ma forse non è qualcosa che voglio fare ogni singolo giorno. In tal caso, assumere persone che lo fanno per lavoro e poi pagare sempre le persone per le loro esperienze vissute e non sfruttarle in termini di compenso effettivo delle persone per quella conoscenza e quell'esperienza vissuta.

Drew: Sì. Penso che sottolinei davvero quanto sia incredibilmente importante e vantaggioso avere team diversi che lavorano sui prodotti, portando tutti i tipi di esperienze diverse.

Eva: Sì, assolutamente.

Drew: Una delle cose che tratti nel tuo libro durante il processo di progettazione è la creazione di archetipi di aggressori e sopravvissuti per aiutarti a testare le tue caratteristiche. Puoi parlarci un po' di questa idea?

Eva: Sì. Ciò è venuto fuori dal voler avere una sorta di artefatto personale che avrebbe aiutato le persone a capire molto chiaramente qual è il problema. Questo è qualcosa che viene dopo che il team ha svolto ricerche sul problema e ha identificato i diversi problemi probabili quando si tratta di sicurezza interpersonale e può articolare molto chiaramente quali sono. Quindi crei l'archetipo dell'abusatore, che è la persona che sta cercando di usare il tuo prodotto per qualunque danno sia, e poi l'archetipo del sopravvissuto, che sarà la vittima di quel danno. La cosa importante di questi è avere gli obiettivi. È praticamente come trovare un'immagine, o non hai nemmeno bisogno di un'immagine, ma articola semplicemente qual è l'abuso e quindi gli obiettivi della persona.

Eva: Se è qualcuno che vuole capire dove vive la sua ex ragazza perché vuole perseguitarla, il suo obiettivo è perseguitarla. Quindi l'obiettivo del sopravvissuto ... Beh, scusa, l'obiettivo del maltrattante sarebbe quello di utilizzare il tuo prodotto. Diciamo che è Strava, per esempio, è uno di quelli che uso come esempio nel libro. Voglio usare Strava per rintracciare la mia ex ragazza, e poi l'archetipo del sopravvissuto dice: "Voglio mantenere la mia posizione segreta alla mia ex che sta cercando di perseguitarmi". Quindi puoi utilizzare questi obiettivi per aiutare a informare alcuni dei tuoi progetti e per testare il tuo prodotto per vedere se c'è qualcosa nei dati sulla posizione del sopravvissuto che è pubblicamente disponibile per qualcuno che sta cercando di trovare la sua posizione, anche se ha abilitato tutta la sua privacy caratteristiche?

Eva: Uso Strava come esempio perché fino a pochi mesi fa c'era quella capacità. C'era qualcosa che anche se avessi messo tutto in privato, se stavi correndo o facendo esercizio nelle vicinanze di qualcun altro utilizzando l'app per un certo periodo di tempo, non è chiaro quanto devi essere vicino o per quanto tempo devi correre lo stesso street come quest'altra persona, la taggherà come se fosse apparsa nel tuo allenamento. Questo sarebbe un esempio in cui l'abusante è stato in grado di raggiungere i suoi obiettivi, è stato in grado di trovare la sua ex in questo modo. Allora sapresti, va bene, dobbiamo lavorare contro di esso e impedire che l'obiettivo abbia successo.

Drew: Soprattutto, non puoi pensare a tutti gli scenari. Non puoi capire cosa proverebbe a fare un molestatore in tutte le circostanze. But by covering some key apparent problems that could crop up, then I guess you're closing lots of doors for other lines of abuse that you haven't thought of.

Eva: Yes. Yeah, exactly. That brings up a really good other related point, which is that, yeah, you're probably not going to think of everything. Then having ways for users to report issues and then being the type of team and company that can take those criticisms or issues that users identify with some grace and quickly course correcting because there's always going to be things you don't think about and users are going to cover all sorts of things. I feel like this always happens. Being able to have a way to get that feedback and then to quickly course correct is also a really big part of the whole process of designing for safety.

Drew: Is there a process that would help you come up with these potential problems? Say you're designing a product that uses location data, what process would you go through to think of the different ways it could be abused? Is there anything that helps in that regard?

Eva: Yeah. This is something I get more in depth about in the book, but having some research around it first is the first thing. With location services is a pretty easy one, so to speak. There's so many documented issues with location services. There's also been academic studies done on this stuff, there's lots of literature out there that could help inform the issues that you're going to face. Then the other thing that I suggest that teams do is after doing this research is doing a brainstorm for novel of use cases that have not been covered elsewhere.

Eva: The way I usually do this is I have the team do a Black Mirror brainstorm. Let's make a Black Mirror episode. What's the worst, most ridiculous, just anything goes, worst case scenario for this product or feature that we're talking about? People usually come up with some really wild stuff and it's actually usually really fun. Then you say, “Okay, let's dial it back. Let's use this as inspiration for some more realistic issues that we might come across,” and then people are usually able to identify all sorts of things that their product might enable.

Drew: For people listening who feel like they would really love to champion this area of work within their organization, do you have any advice as to how they could go about doing that?

Eva: Yeah. There is a lot of stuff about this in the book, about integrating this into your practice and bringing it to your company. Advice for things like talking to a reluctant stakeholder whose only concern is, well, how much is this going to cost me? How much extra time is this going to take? Being able to give really explicit answers about things like that is really useful. Also, I have recordings of my conference talk which people usually say, “I had just had no idea that this was a thing.” You can help educate your team or your company.

Eva: I talked about this in the book too, honestly, it can be awkward and weird to bring this stuff up and just being mentally prepared for how it's going to feel to be like, “We should talk about domestic violence,” or, “We should talk about invasive child surveillance.” It can be really hard and just weird. One of the pieces of advice I give is for people to talk to a supportive coworker ahead of time, who can back them up if you're going to bring this up in a meeting and just help reduce the weirdness, and there are some other tactics in the book. But those are definitely the big ones.

Drew: I would normally ask at this point where our listeners should go to find out more about the topic. But I know that the answer is actually to go and read your book. We've only really just scratched the surface on what's covered in Design For Safety, which is out now, this August 2021 from A Book Apart. The book, for me, it's sometimes an uneasy read in terms of content, but it's superbly written and it really opened my eyes to a very important topic. One thing I really like about all the A Book Apart books is they're small and focused and they're easy to consume. I would really recommend that listeners check out the book if the topic is interesting to them.

Eva: Yeah, thanks for that. Theinclusivesafetyproject.com is the website I have to house all of this information. There's a lot of great resources in the back of the book for people who want to learn more. But if you just want something and more immediately, you can go to Theinclusivesafetyproject.com and there's a resources page there that has different sort of articles or studies to look at different people working in related spaces to follow on Twitter, books to read, things like that.

Drew: Giusto. I've been learning what it means to design for safety. What have you been learning about, Eva?

Eva: I have been learning about data. I'm reading a really interesting book called Living in Data by Jer Thorp, which I thought it was going to be all about different issues with big data, which is such a big thing but it's actually an extremely thoughtful, much more interesting approach to what it means to live in data and just how much data is taken from us every day and what's done with it and just data out there in the world. It's really interesting and important, and yeah, I would definitely recommend that book.

Drew: No, amazing. If you the listener would like to hear more from Eva, you can follow her on Twitter where she's @epenzeymoog, and you can find all her work linked from her website at evapenzeymoog.com. Design For Safety is published abookapart.com and is available now. Thanks for joining us today, Eva. Hai qualche parola d'addio?

Eva: Please get vaccinated so that we can go back to normal.