Smashing Podcast Episodio 41 con Eva PenzeyMoog: Diseño para la seguridad

Publicado: 2022-03-10
Resumen rápido ↬ En este episodio, estamos hablando de diseñar para la seguridad. ¿Qué significa considerar usuarios vulnerables en nuestros diseños? Drew McLellan habla con la experta Eva PenzeyMoog para averiguarlo.

En este episodio, estamos hablando de diseñar para la seguridad. ¿Qué significa considerar usuarios vulnerables en nuestros diseños? Drew McLellan habla con la experta Eva PenzeyMoog para averiguarlo.

Mostrar notas

  • Diseño para la seguridad de A Book Apart
  • El Proyecto de Seguridad Inclusiva
  • Eva en Twitter
  • Sitio personal de Eva

Actualización semanal

  • Cómo construir un sitio de comercio electrónico con Angular 11, Commerce Layer y Paypal escrito por Zara Cooper
  • Refactorización de CSS: estrategia, pruebas de regresión y mantenimiento escrito por Adrian Bece
  • Cómo crear interfaces de usuario de JavaScript resistentes escritas por Callum Hart
  • Reaccionar niños y métodos de iteración escrito por Arihant Verma
  • Patrones de diseño frustrantes: Botones desactivados escrito por Vitaly Friedman

Transcripción

Foto de Eva PenzeyMoog Drew McLellan: Es la fundadora de The Inclusive Safety Project, autora del libro Diseñado para la seguridad, que se lanza este mes desde A Book Apart. Es la diseñadora principal de 8th Light, donde diseña y crea software personalizado y asesora sobre estrategias de diseño seguras e inclusivas. Sabemos que es una experta en el diseño de tecnología para proteger a los vulnerables, pero ¿sabías que posee el récord internacional de la mayor cantidad de donas realizadas en una carretilla elevadora? Mis grandes amigos, denle la bienvenida a Eva PenzeyMoog. Hola Eva, como estas?

Eva PenzeyMoog: Estoy genial.

Drew: Es bueno escuchar. Quería hablarles hoy sobre los principios del diseño de productos y experiencias teniendo en cuenta la seguridad de los usuarios vulnerables. ¿Sería justo desde el principio dar algún tipo de advertencia para cualquier tema en particular que podamos abordar?

Eva: Absolutamente, sí. Gracias por mencionar eso. Definitivamente active la advertencia para las menciones explícitas de violencia doméstica, también posiblemente algún abuso de ancianos y abuso infantil.

Drew: Eso es importante. Sentirse libre. Si le preocupa alguno de esos problemas, podría ser un factor desencadenante para usted. Siéntase libre de saltarlos. Nos vemos en el próximo episodio. Enmarca la conversación para nosotros, Eva. Cuando hablamos de diseño para la seguridad, ¿de qué tipo de problemas de seguridad estamos hablando? No estamos hablando de interfaces para coches autónomos. No es ese tipo de seguridad, ¿verdad?

Eva: Correcto, exacto. Si. Cuando hablo de seguridad, en realidad me refiero a la seguridad interpersonal, las formas en que los usuarios pueden armar nuestros productos para dañarse unos a otros de manera interpersonal. Personas que se conocen, viven juntas, mucha violencia doméstica por parte de parejas románticas, pero también de padres e hijos. También hay un poco de empleadores y empleados más en el ámbito de la vigilancia. Pero existe esa relación real personal interna requerida en términos de seguridad de la que estoy hablando, a diferencia de, sí, alguien anónimo en Internet o alguna entidad anónima que intenta obtener sus datos, cosas así.

Drew: ¿Podrían ser problemas tan simples como... Pienso en todos los días que ves en las redes sociales donde existe la posibilidad de que diferentes usuarios se envíen mensajes directos entre sí, y cómo se supone que es una pequeña herramienta útil para permitir que las personas mantengan una conversación fuera de línea? o fuera del público. Pero ese tipo de cosas también podría, sin las garantías adecuadas, ser un vector para algún tipo de abuso de control.

Eva: Sí, absolutamente. Definitivamente cada vez que permite que los usuarios se envíen cualquier tipo de texto entre sí, existe la posibilidad de abuso. Los mensajes de Facebook, ese es un poco más obvio, y creo... Bueno, espero que tengan algunas medidas de seguridad que reconozcan que tal vez no quieras ver ciertos mensajes o que quieras dejar que alguien te contacte. Pero una que es realmente interesante y relacionada que encontré mientras investigaba es una gran cantidad de diferentes aplicaciones bancarias o servicios como Venmo que te permiten compartir dinero. A menudo hay un espacio para un mensaje. Al menos con Venmo, es obligatorio.

Eva: Algunos bancos, es opcional, pero las personas envían un centavo a alguien y luego tienen un mensaje abusivo o algo realmente dañino, aterrador o amenazante, y no hay realmente una manera para que el usuario que recibe esos mensajes marque eso o diga, "Quiero bloquear a este usuario, porque ¿por qué querrías evitar que alguien te envíe dinero?" Esa es una situación en la que creo que el diseñador simplemente no ha considerado que los abusadores siempre están buscando formas de hacer cosas así. Son muy creativos y no se ha considerado en el diseño.

Drew: A menudo hablamos de diseñar el camino feliz donde todo se usa como está diseñado para ser usado y la experiencia transcurre sin problemas. Luego, como ingenieros, pensamos en cómo podrían salir mal las cosas en términos de fallas en la validación o caídas de las API. Pero no estoy seguro... Como industria, ¿tenemos un gran punto ciego acerca de las formas en que las tecnologías podrían usarse indebidamente cuando se trata de considerar la seguridad de nuestros usuarios?

eva: si Creo absolutamente que hay un punto ciego gigante. La gente está muy familiarizada con este tipo de diversos modelos de amenazas, como mencioné, de la persona anónima que lo acosa en Twitter, diferentes entidades que intentan piratear los datos de una empresa bancaria, cosas así. Pero lo llamamos el modelo de amenaza de violencia doméstica, que es muy diferente y es uno en el que la mayoría de la gente no está pensando y esa siempre ha sido la retroalimentación cuando hice mi charla, diseñando contra la violencia doméstica en los tiempos anteriores antes de que la pandemia detuviera las conferencias. . Esa fue siempre la retroalimentación, la gente dice: “Nunca había oído hablar de esto. No tenía ni idea." Ese es el objetivo de mi discurso y mi libro y mi trabajo en general es ayudar a las personas a entender qué es esto y qué hacer al respecto porque es algo que es simplemente un enorme punto ciego.

Drew: Creo que tenemos una tendencia, y obviamente es peligroso suponer que todos los usuarios son como nosotros. Al igual que las personas que están construyendo el servicio o producto, al igual que nuestros soldados, como nuestros amigos y nuestra familia y las personas que conocemos, y suponer que todos se encuentran en una situación estable en el hogar y tienen la propiedad o el control total de sus servicios. y dispositivos Ese no es siempre el caso, ¿verdad?

Eva: Sí, absolutamente. Definitivamente no siempre es el caso. Creo que podríamos mirar a nuestros amigos y familiares y pensar que todos tienen una buena relación, pero algo que descubrí es que definitivamente la mayoría de las personas que pasan por violencia doméstica no se lo están diciendo a todos en su vida exactamente y gritándolo desde los tejados La mayoría de las personas, solo con base en las estadísticas, es muy común. Probablemente conoces a alguien que ha estado en esa situación o está actualmente en esa situación, y simplemente no están hablando de eso o tal vez no están compartiendo todo el alcance del comportamiento.

Eva: En muchos sentidos, es comprensible que no sea algo en lo que la gente realmente haya pensado en el lugar de trabajo porque no es algo en lo que pensamos en la sociedad y la vida en general y lo reproducimos en nuestro lugar de trabajo. Mi trabajo está tratando de que hablemos de ello un poco más explícitamente.

Drew: ¿Cuáles son algunas de las cosas en las que deberíamos pensar cuando se trata de estas consideraciones? Solo pensando en cuándo alguien más podría tener acceso a su cuenta, o si un socio conoce su contraseña y puede ingresar, pensaría que esos productos han sido diseñados para ser controlados por una persona, pero ahora tal vez alguien malvado esté accediendo. ¿Qué tipo de consideraciones hay allí?

eva: si Bueno, hay tantas cosas diferentes, pero esa es una muy importante que tengo... Tres capítulos principales de mi nuevo libro se centran en las tres grandes áreas diferentes en las que esto sucede, y lo que acabas de mencionar es el enfoque de una de hablarles sobre problemas de control y potencia con productos que están diseñados para varias personas. Cosas como una cuenta bancaria compartida, cosas como Netflix o Spotify, cosas como todo tipo de dispositivos domésticos diferentes, dispositivos de Internet de las cosas, que aparentemente están destinados a varias personas. Pero existe la suposición de que todos son personas respetuosas que no buscan otra forma de ejercer el poder y el control sobre las personas que los rodean.

Eva: Muchas cuentas bancarias conjuntas o cosas como el servicio de tarjetas de crédito compartidas se hacen pasar por una cuenta conjunta, pero en realidad una persona tiene más poder. Por ejemplo, esto me pasó a mí y fue muy frustrante porque yo manejo la mayor parte de las finanzas de mi matrimonio. Pero cuando creamos nuestra primera cuenta bancaria conjunta hace años, establecieron a mi esposo como el usuario principal, lo que básicamente significaba que eran sus datos disponibles públicamente los que se usaban para crear un cuestionario de seguridad. Cuando entro en nuestro banco desde una nueva red Wi-Fi, tengo que preguntarle, ¿en cuál de estas calles vivías cuando eras niño? En realidad, en su mayoría son... Puedo responder a algunas de ellas.

Eva: Sé que nunca ha vivido en California, pero muchos de ellos son realmente buenos y tengo que preguntarle a pesar de que hemos estado juntos durante mucho tiempo. Son bastante efectivos para mantener a alguien fuera. Pero se supone que esta es una cuenta conjunta, ¿por qué es en realidad...? En realidad, es solo una cuenta para él a la que también tengo acceso. Muchos problemas con eso en los que están permitiendo que alguien tenga más control porque simplemente no podría darme las respuestas y entonces no tendría acceso a nuestras finanzas sin tener que llamar al banco o pasar por algo y pasar por un proceso diferente. Si. Muchos problemas diferentes con el control.

Eva: Creo que cada vez que estás diseñando un producto que va a involucrar a múltiples usuarios, piensa cómo un usuario va a usar esto para controlar a otra persona, y luego cómo podemos poner algunas salvaguardas a eso, ya sea haciéndolo para que una persona no tiene el control. Si eso no es posible, ¿cómo podemos al menos asegurarnos de que la otra persona entienda exactamente lo que está sucediendo y sepa exactamente cómo recuperar el poder? ¿Podemos darles un número para llamar, algún tipo de configuración para cambiar? Sea lo que sea, todo se vuelve un poco complicado.

Eva: Tengo todo un proceso en el libro sobre cómo se ve esto en la práctica, algo un poco más específico que solo considerar la violencia doméstica o simplemente considerar quién tiene el control. No encuentro ese tipo de consejos súper útiles. Tengo un proceso muy completo que los diseñadores pueden implementar además de su proceso de diseño actual para llegar a algunas de estas cosas.

Drew: Supongo, donde tienes estas cuentas... Tener una cuenta es un concepto tan común. Estamos creando productos o servicios cuyo bloque de construcción fundamental es, está bien, tenemos una cuenta de usuario. Probablemente ni siquiera pensamos demasiado en los tipos de problemas al configurar eso y pensar si la cuenta es diferente de las personas responsables de la cuenta. A menudo, se les considera como una sola entidad, y luego hay que agregarle otras entidades para crear cuentas conjuntas y ese tipo de cosas. Pero también considerando el tema de qué sucede con esa cuenta si dos personas van por caminos separados, ¿cómo se puede dividir eso en el futuro? ¿Es algo en lo que deberíamos estar pensando desde el principio?

Eva: Sí, absolutamente. Ese es un muy buen punto que mencionas. Creo que una de las cosas que más me gustan es que cuando centramos en nuestro diseño a las sobrevivientes de diferentes tipos de abuso, terminamos creando productos que son mejores para todos. Entrevisté a una buena cantidad de personas específicamente sobre el elemento de abuso financiero, que es muy común en entornos de violencia doméstica. La estadística es que el 99% de las personas en una relación de violencia doméstica, hay algún elemento de abuso financiero que es muy común. Pero también terminé entrevistando a algunas personas que habían perdido trágicamente a su cónyuge, una persona había muerto y tenían una cuenta conjunta.

Eva: Eso es como un bonito... Tristemente, es un escenario muy común, pero no es algo que muchos de estos productos estén diseñados para manejar, y puede llevar años obtener el control total sobre una cuenta compartida o sobre algo como... Cuando murió mi abuela, ella tuvo mucha previsión y le había dado acceso a todo a mi papá. Pero incluso con eso, todavía le tomó mucho tiempo arreglar todo porque estos productos simplemente no están diseñados para manejar cosas así. Pero si tuviéramos que centrarnos en los sobrevivientes y pensar, sí, cómo se ve cuando dos personas se separan y poder manejar eso de manera efectiva, eso finalmente ayudaría a muchas otras personas en otras situaciones.

Drew: Pensamos mucho sobre el proceso de incorporación y la creación de nuevas cuentas y la incorporación de personas a un producto, y luego nos olvidamos de considerar lo que sucede cuando se van por cualquier medio, si desafortunadamente mueren o cómo se completa eso en el otro extremo del proceso. Creo que es algo que no recibe la atención de la que realmente podría beneficiarse.

eva: si

Drew: Llevamos teléfonos en nuestros bolsillos, y son dispositivos muy personales y, a menudo, son literalmente las claves de nuestro acceso a la información, las finanzas y la comunicación. En una situación negativa, eso podría fácilmente... El hecho de que sea un dispositivo tan personal puede convertirse en un vector de control y abuso. Solo pensando en cosas como los servicios de ubicación, servicios como Find My de Apple, que es genial si tienes niños en edad escolar y puedes registrarte y ver dónde están, ver si están donde se supone que están, están seguros. . Es una característica de seguridad en muchos sentidos, pero esa característica se puede subvertir, ¿no es así?

Eva: Sí, absolutamente. Sí, y me alegra que menciones eso porque muchos de estos productos son características de seguridad para los niños. Sí, por supuesto, los padres quieren saber dónde están sus hijos, quieren asegurarse de que estén seguros, y esa puede ser una herramienta realmente efectiva. Creo que hay muchos problemas con los padres que abusan de estos productos. Encontré algunos casos de estudiantes universitarios que todavía están siendo controlados por sus padres y recibirán una llamada si van a una fiesta fuera del campus como ¿por qué no estás en tu dormitorio? Ese tipo de cosas. Puede llegar a ser demasiado. Pero sí, en su mayor parte, esos son excelentes productos. Pero mucha gente los usa mal para rastrear a adultos que no dan su consentimiento para que se rastree su ubicación, y muchas veces ellos...

Eva: Tienes que entrar al servicio como con Google Maps, por ejemplo, compartir ubicación. Tienes que investigarlo para ver que lo estás compartiendo con alguien. No hay alerta. Similar con Find My. El usuario cuya ubicación está siendo rastreada recibe una alerta, pero en una situación de violencia doméstica, es muy fácil para el abusador simplemente borrar la alerta del teléfono de la persona antes de que pueda verla, y entonces no hay otra manera de que esa persona se va a dar cuenta de que esto está pasando. Creo que es un buen ejemplo de que los casos de abuso simplemente no se consideran cuando creamos cosas que, en última instancia, tienen que ver con la seguridad de los niños. Pero tenemos que darnos cuenta de que hay toneladas de personas que lo van a usar para no niños en estos otros entornos.

Drew: Supongo que en una relación, puede dar su consentimiento para que se rastree su ubicación de buena gana en un momento dado, y luego puede que no entienda que eso continúa, y puede que no se dé cuenta de que eso todavía está sucediendo y usted está ser rastreado sin darse cuenta.

eva: si Eso es algo muy importante a considerar porque dentro de las relaciones abusivas, no es como... El abuso no comienza el primer día, en su mayor parte. Por lo general, es una relación realmente excelente al principio, y luego lentamente introducen diferentes formas de control y toman el poder y eliminan a la persona de su red de apoyo, y todo esto sucede con el tiempo, a menudo a lo largo de los años, porque si comienzas a hacer esto en la primera cita, la mayoría de la gente diría: "Sí, no, me voy". Pero una vez que existe esta relación amorosa, se vuelve mucho más difícil simplemente dejar a esa persona.

Eva: Pero sí, muchas veces las cosas que eran totalmente seguras al comienzo de la relación ya no lo son, pero la persona hace tiempo que olvidó que compartió su ubicación con esta persona, y de nuevo no hay una buena manera de ser recordado. Hay algunas cosas como para su crédito, Google envía un correo electrónico cada 30 días, aunque algunas personas han dicho que en realidad no los reciben con tanta frecuencia, y algunas personas lo hacen. No estoy seguro de qué está pasando exactamente, pero envían un correo electrónico de resumen con todas las personas con las que estás compartiendo tu ubicación, lo cual es realmente increíble.

Eva: Pero creo que se puede hacer mucho daño en 30 días. Preferiría algo que sea más frecuente o incluso algo omnipresente que le permita saber que esto está sucediendo, o algo que esté sucediendo con más frecuencia, que le permita al abusador simplemente eliminar esa notificación. Sí, ese es un muy buen punto, es ese consentimiento. Hay muchas cosas que provienen de las prácticas de consentimiento de las agresiones sexuales. Creo que hay mucha relevancia para la tecnología. El hecho de que usted consintió en algo en el pasado no significa que lo consienta ahora o en el futuro. Pero en tecnología, pensamos: "Bueno, dieron su consentimiento hace cinco años, por lo que ese consentimiento sigue siendo válido", y ese no es realmente el caso. Deberíamos obtener su consentimiento nuevamente más adelante.

Drew: Sí, presenta todo tipo de desafíos, ¿no? En cómo se diseñan estas cosas, porque no quieres poner tantos obstáculos en el diseño de un producto que deje de ser útil. O en un caso en el que está rastreando a un niño y realmente no ha vuelto a dar su consentimiento ese día, y de repente, está perdido y no tiene el servicio habilitado. Pero, de nuevo, asegurándose de que ese consentimiento solo se mantenga mientras realmente se dé. Creo que es bastante fácil en un documento compartido, si está usando Documentos de Google, o lo que sea, para ver quién está mirando ese documento en ese momento, aparecen todos los íconos, si... Los avatares de todos los diferentes usuarios que estaban allí y tener acceso. ¿Pensaste que ese tipo de soluciones podrían funcionar igual de bien cuando las personas acceden a tu ubicación?

Eva: Sí, totalmente. Sí, se pone pegajoso. No hay muchas soluciones sencillas y sencillas con estas cosas, y las cosas sobre, sí, quieres... Tal vez no sea una buena idea dejar que tus hijos de ocho años den su consentimiento todos los días porque ¿y si un día son como, "No", o dicen por error que no o lo que sea, y luego, de repente, no puedes encontrarlos. Sí, ese es un escenario real. Creo que, con algunas de estas cosas, no creo que sea realista decir: "Bueno, esta producción no debería existir o deberías obtener el consentimiento todos los días".

Eva: Pero en esos casos, todavía hay cosas que puedes hacer como decirle a la persona que esta persona, este otro usuario puede ver su ubicación incluso si no hay mucho que puedan hacer al respecto. Como mínimo, darles esa información para que entiendan claramente lo que está sucediendo y luego puedan tomar medidas para mantenerse a salvo si están en esa relación abusiva, será realmente útil. Tal vez ahora saben, está bien, no voy a llevar mi teléfono conmigo cuando salga de la oficina durante la hora del almuerzo para ver a mi amiga a quien mi pareja no aprueba porque ella siempre aboga mucho por que deje el relación y él sabría que he ido a alguna parte si llevo mi teléfono.

Eva: Pero si dejo mi teléfono en la oficina, él no lo sabrá. Ser capaz de tomar ese tipo de decisiones informadas. Incluso si no puede finalizar necesariamente el uso compartido de la ubicación, definitivamente hay otras cosas que podemos hacer para mantener a los usuarios seguros y al mismo tiempo conservar la funcionalidad principal del producto principal.

Drew: Sí. Todo se reduce a decisiones de diseño, ¿no es así? Y encontrar soluciones a problemas difíciles, pero primero comprender que el problema está ahí y necesita ser resuelto, que creo que es donde esta conversación es tan importante para comprender las diferentes formas en que se usan las cosas. Cada vez más, tenemos dispositivos con micrófonos y cámaras en ellos. Tenemos muchas cámaras de vigilancia en nuestras casas y en nuestros timbres, y la vigilancia encubierta ya no es solo algo de películas de espías y programas de policías, ¿verdad?

eva: si Oh sí. Es un gran problema. Tengo sentimientos muy fuertes sobre estas cosas, y sé que mucha gente está realmente interesada en estos dispositivos y creo que eso está totalmente bien. Creo que se usan mucho para la vigilancia. Pienso en muchos cónyuges y miembros de la familia, pero también en muchos... Aquí es donde creo que meterse en cosas con niños, al menos para mí, se vuelve un poco más claro que incluso los niños tienen algunos derechos a la privacidad, y especialmente cuando miras a los adolescentes que necesitan mucha más independencia y necesitan espacio, y literalmente hay cosas de desarrollo cerebral en torno a la independencia.

Eva: Creo que hay maneras de ayudar a sus hijos a estar seguros en línea y a tomar buenas decisiones, y también a veces de controlar lo que están haciendo sin que sea algo en lo que los esté mirando constantemente o inyectándose constantemente en sus vidas. que no quieren. Pero sí, la plétora de diferentes dispositivos de vigilancia está fuera de control, y la gente los usa todo el tiempo para vigilarse entre sí de forma encubierta o ni siquiera abiertamente. A veces es algo abierto como, “Sí, te estoy observando. ¿Qué vas a hacer al respecto? No puedes porque estamos en esta relación en la que he elegido usar la violencia para mantener mi poder y control sobre ti”.

Eva: Se convierte en un gran problema. Algo con lo que me encontré mucho es la gente... Se convierte en una forma más para que el abusador aísle al sobreviviente de su red de apoyo. No puedes tener una conversación telefónica privada con tu amigo, tu hermano o tu terapeuta. De repente, no hay ningún lugar en su hogar que sea realmente un espacio privado, lo que también ha sido un gran problema durante la pandemia, donde las personas se ven obligadas a quedarse en casa. Hemos visto un gran aumento en la violencia doméstica, así como la violencia doméstica facilitada por la tecnología porque los abusadores han tenido más tiempo para descubrir cómo hacer estas cosas, y es un espacio mucho más pequeño que tienen que conectar para controlar. Mucha gente ha estado haciendo eso. Ha sido un problema realmente grande.

Drew: Esperaría que los fabricantes de este tipo de productos, cámaras de vigilancia y demás, dijeran: “Aquí solo estamos fabricando herramientas. No tenemos ninguna responsabilidad sobre cómo se utilizan. No podemos hacer nada al respecto”. Pero, ¿diría usted que, sí, tienen la responsabilidad de cómo se usan esas herramientas?

Eva: Sí, lo haría. En primer lugar, le diría a alguien que dijo eso: “Eres un ser humano primero antes de ser un empleado en una empresa de tecnología, una persona capitalista que hace dinero. Eres un ser humano y tus productos están afectando a los seres humanos y eres responsable de eso”. Lo segundo que diría es que simplemente exigir un mayor nivel de conocimientos tecnológicos de nuestros usuarios es una mentalidad realmente problemática, porque es fácil para los que trabajamos en tecnología decir: "Bueno, la gente solo necesita aprender más". sobre eso No somos responsables si alguien no entiende cómo se utiliza nuestro producto”.

Eva: Pero la mayoría de la gente no trabaja en tecnología y todavía hay, obviamente, mucha gente realmente experta en tecnología que no trabaja en tecnología. Pero exigir que las personas entiendan exactamente cómo cada aplicación que tienen, cada cosa que usan en su teléfono o su computadora portátil, cada dispositivo que tienen en sus hogares, comprender cada función e identificar las formas en que podría ser usado contra ellos, eso es una carga enorme. Puede que no parezca un gran problema si solo está pensando en su único producto como, oh, bueno, por supuesto, la gente debería tomarse el tiempo para entenderlo.

Eva: Pero estamos hablando de docenas de productos que estamos poniendo la responsabilidad de que las personas que están pasando por una situación peligrosa entiendan, lo cual es muy poco realista y bastante inhumano, especialmente considerando lo que hacen el abuso y la vigilancia y estas cosas diferentes. a tu cerebro si estás constantemente en un estado de amenaza y en este modo de supervivencia todo el tiempo. Su cerebro no va a poder tener un funcionamiento ejecutivo completo al averiguar, mirar esta aplicación e intentar identificar cómo mi esposo la usa para observarme o controlarme o lo que sea. Diría que eso es realmente, honestamente, una mentalidad de mierda y que somos responsables de cómo la gente usa nuestros productos.

Drew: Cuando crees que la mayoría de la gente no entiende más de uno o dos botones de su microondas, ¿cómo podemos esperar que entendamos las capacidades y el funcionamiento de todas las diferentes aplicaciones y servicios con los que entramos en contacto?

Eva: Absolutamente. Si.

Drew: Cuando se trata de diseñar productos y servicios, siento como un hombre blanco heterosexual que habla inglés que tengo un gran punto ciego debido a la posición privilegiada que me otorga la sociedad, y me siento muy ingenuo y soy consciente de que podría conducir a elecciones de diseño problemáticas en las cosas que estoy haciendo. ¿Hay pasos que podamos tomar y un proceso que podamos seguir para asegurarnos de que estamos exponiendo esos puntos ciegos y haciendo todo lo posible para salir de nuestro propio ámbito de experiencia e incluir más escenarios?

Eva: Sí, absolutamente. Tengo tantos pensamientos sobre esto. Creo que hay un par de cosas. Primero, todos somos responsables de educarnos sobre nuestros puntos ciegos. Todo el mundo tiene puntos ciegos. Creo que tal vez un hombre blanco cis tiene más puntos ciegos que otros grupos, pero no es que haya un grupo que no tenga puntos ciegos. Todo el mundo los tiene. Creo que educarnos sobre las diferentes formas en que nuestra tecnología puede ser mal utilizada. Creo que es más que... Obviamente, la seguridad interpersonal es lo mío en lo que trabajo. Pero también hay todas estas otras cosas, sobre las que también trato constantemente de aprender y descubrir cómo me aseguro de que la tecnología en la que estoy trabajando no perpetúe estas cosas diferentes.

Eva: Me gusta mucho Design For Real Life de Sara Wachter-Boettcher y Eric Meyer es excelente para el diseño inclusivo y el diseño compasivo. Pero también he estado aprendiendo sobre algoritmos y racismo y sexismo y diferentes problemas con los algoritmos. Hay tantas cosas diferentes que debemos considerar, y creo que todos somos responsables de aprender sobre esas cosas. Luego, también creo que incorporar la experiencia vivida de las personas que han pasado por estas cosas una vez que haya identificado, está bien, el racismo será un problema con este producto, y debemos asegurarnos de que estamos lidiando con eso y tratando de prevenirlo y definitivamente dando formas para que las personas denuncien el racismo o lo que sea.

Eva: Una de las cosas, el ejemplo que doy en mi libro es que Airbnb tiene muchos problemas con el racismo y los anfitriones racistas. Incluso solo el estudio sobre si tienes... Si tu foto es de una persona negra, te van a negar. Su solicitud para reservar una estadía será denegada con más frecuencia que si tiene una persona blanca en su foto. Creo que soy una persona blanca, eso es algo que no creo que pueda simplemente ir y aprender y luego hablar como una autoridad sobre el tema. Creo que en ese caso, debe traer a alguien con esa experiencia vivida que pueda informarle, así que contrate a un consultor de diseño negro porque obviamente sabemos que en realidad no hay una gran diversidad en tecnología.

Eva: Lo ideal sería que ya tuvieras gente en tu equipo que pudiera hablar de eso, pero creo... Pero luego es tan complicado. Aquí es donde entra en juego ¿exigimos ese tipo de trabajo de nuestros compañeros de equipo? Eso también puede ser problemático. La persona negra en su equipo probablemente ya se enfrentará a muchas cosas diferentes, y luego la gente blanca dirá: "Oye, háblame sobre las experiencias traumáticas que has tenido debido a tu raza". Probablemente no deberíamos poner ese tipo de carga sobre las personas, a menos que...

Eva: Mucha gente estará dispuesta a mencionar eso y hablar sobre eso, y hablaré sobre cosas, mi experiencia como mujer, pero tal vez no sea algo que quiera hacer todos los días. En ese caso, contratar a personas que hacen eso por trabajo y luego siempre pagarles por sus experiencias vividas y hacer que no sea explotador en términos de compensar a las personas por ese conocimiento y esa experiencia vivida.

Drew: Sí. Creo que realmente subraya lo increíblemente importante y beneficioso que es tener diversos equipos trabajando en productos, aportando todo tipo de experiencias diferentes.

Eva: Sí, absolutamente.

Drew: Una de las cosas que cubre en su libro en el proceso de diseño es crear arquetipos de abusador y sobreviviente para ayudarlo a probar sus características. ¿Podrías contarnos un poco sobre esa idea?

eva: si Esto surgió de querer tener una especie de artefacto personal que ayudaría a las personas a comprender muy claramente cuál es el problema. Esto es algo que surge después de que el equipo haya investigado el problema y haya identificado los diferentes problemas probables en lo que respecta a la seguridad interpersonal y pueda articular muy claramente cuáles son. Luego creas el arquetipo del abusador, que es la persona que está tratando de usar tu producto para el daño que sea, y luego el arquetipo del sobreviviente, que será la víctima de ese daño. Lo importante de estos es tener los objetivos. Es más o menos como si encontraras una imagen, o ni siquiera necesitas una imagen, pero simplemente articula cuál es el abuso y luego los objetivos de la persona.

Eva: Si es alguien que quiere averiguar dónde vive su ex novia ahora porque quiere acosarla, su objetivo es acosarla. Entonces el objetivo del sobreviviente... Bueno, lo siento, el objetivo del abusador sería usar su producto. Digamos que es Strava, por ejemplo, es uno de los que uso como ejemplo en el libro. Quiero usar Strava para rastrear a mi ex novia, y luego el arquetipo de sobreviviente dice: "Quiero mantener mi ubicación en secreto de mi ex que está tratando de acecharme". Luego, puede usar esos objetivos para ayudar a informar parte de su diseño y probar su producto para ver si hay algo sobre los datos de ubicación del sobreviviente que esté disponible públicamente para alguien que está tratando de encontrar su ubicación, incluso si ha habilitado toda su privacidad. ¿caracteristicas?

Eva: Uso Strava como ejemplo porque hasta hace unos meses existía esa capacidad. Hubo algo que incluso si había puesto todo en privado, si estaba corriendo o haciendo ejercicio cerca de otra persona usando la aplicación durante un cierto período de tiempo, no está claro qué tan cerca debe estar o cuánto tiempo debe estar corriendo lo mismo calle como esta otra persona, la etiquetará como si hubiera aparecido en tu entrenamiento. Ese sería un ejemplo donde el abusador pudo cumplir con sus objetivos, pudo encontrar a su ex de esta manera. Entonces sabría, está bien, tenemos que trabajar en contra de eso y evitar que ese objetivo tenga éxito.

Drew: Especialmente, no puedes pensar en todos los escenarios. No se puede averiguar lo que un abusador intentaría hacer en todas las circunstancias. But by covering some key apparent problems that could crop up, then I guess you're closing lots of doors for other lines of abuse that you haven't thought of.

Eva: Yes. Si, exacto. That brings up a really good other related point, which is that, yeah, you're probably not going to think of everything. Then having ways for users to report issues and then being the type of team and company that can take those criticisms or issues that users identify with some grace and quickly course correcting because there's always going to be things you don't think about and users are going to cover all sorts of things. I feel like this always happens. Being able to have a way to get that feedback and then to quickly course correct is also a really big part of the whole process of designing for safety.

Drew: Is there a process that would help you come up with these potential problems? Say you're designing a product that uses location data, what process would you go through to think of the different ways it could be abused? Is there anything that helps in that regard?

Eva: Yeah. This is something I get more in depth about in the book, but having some research around it first is the first thing. With location services is a pretty easy one, so to speak. There's so many documented issues with location services. There's also been academic studies done on this stuff, there's lots of literature out there that could help inform the issues that you're going to face. Then the other thing that I suggest that teams do is after doing this research is doing a brainstorm for novel of use cases that have not been covered elsewhere.

Eva: The way I usually do this is I have the team do a Black Mirror brainstorm. Let's make a Black Mirror episode. What's the worst, most ridiculous, just anything goes, worst case scenario for this product or feature that we're talking about? People usually come up with some really wild stuff and it's actually usually really fun. Then you say, “Okay, let's dial it back. Let's use this as inspiration for some more realistic issues that we might come across,” and then people are usually able to identify all sorts of things that their product might enable.

Drew: For people listening who feel like they would really love to champion this area of work within their organization, do you have any advice as to how they could go about doing that?

Eva: Yeah. There is a lot of stuff about this in the book, about integrating this into your practice and bringing it to your company. Advice for things like talking to a reluctant stakeholder whose only concern is, well, how much is this going to cost me? How much extra time is this going to take? Being able to give really explicit answers about things like that is really useful. Also, I have recordings of my conference talk which people usually say, “I had just had no idea that this was a thing.” You can help educate your team or your company.

Eva: I talked about this in the book too, honestly, it can be awkward and weird to bring this stuff up and just being mentally prepared for how it's going to feel to be like, “We should talk about domestic violence,” or, “We should talk about invasive child surveillance.” It can be really hard and just weird. One of the pieces of advice I give is for people to talk to a supportive coworker ahead of time, who can back them up if you're going to bring this up in a meeting and just help reduce the weirdness, and there are some other tactics in the book. But those are definitely the big ones.

Drew: I would normally ask at this point where our listeners should go to find out more about the topic. But I know that the answer is actually to go and read your book. We've only really just scratched the surface on what's covered in Design For Safety, which is out now, this August 2021 from A Book Apart. The book, for me, it's sometimes an uneasy read in terms of content, but it's superbly written and it really opened my eyes to a very important topic. One thing I really like about all the A Book Apart books is they're small and focused and they're easy to consume. I would really recommend that listeners check out the book if the topic is interesting to them.

Eva: Yeah, thanks for that. Theinclusivesafetyproject.com is the website I have to house all of this information. There's a lot of great resources in the back of the book for people who want to learn more. But if you just want something and more immediately, you can go to Theinclusivesafetyproject.com and there's a resources page there that has different sort of articles or studies to look at different people working in related spaces to follow on Twitter, books to read, things like that.

Drew: Cierto. I've been learning what it means to design for safety. What have you been learning about, Eva?

Eva: I have been learning about data. I'm reading a really interesting book called Living in Data by Jer Thorp, which I thought it was going to be all about different issues with big data, which is such a big thing but it's actually an extremely thoughtful, much more interesting approach to what it means to live in data and just how much data is taken from us every day and what's done with it and just data out there in the world. It's really interesting and important, and yeah, I would definitely recommend that book.

Drew: No, amazing. If you the listener would like to hear more from Eva, you can follow her on Twitter where she's @epenzeymoog, and you can find all her work linked from her website at evapenzeymoog.com. Design For Safety is published abookapart.com and is available now. Thanks for joining us today, Eva. ¿Tienes alguna palabra de despedida?

Eva: Please get vaccinated so that we can go back to normal.