与 Eva PenzeyMoog 合作的 Smashing Podcast 第 41 集:为安全而设计
已发表: 2022-03-10这篇文章得到了我们在 Netlify 的亲爱的朋友们的大力支持,他们是来自世界各地的一群令人难以置信的人才,并为 Web 开发人员提供了一个可以提高生产力的平台。 谢谢!
在这一集中,我们谈论的是安全设计。 在我们的设计中考虑易受攻击的用户意味着什么? Drew McLellan 与专家 Eva PenzeyMoog 交谈以找出答案。
显示注释
- 从一本书开始的安全设计
- 包容性安全项目
- 伊娃在推特上
- 伊娃的个人网站
每周更新
- 如何使用 Angular 11、Commerce Layer 和 Paypal 构建电子商务网站,作者:Zara Cooper
- 重构 CSS:策略、回归测试和维护由 Adrian Bece 撰写
- 如何构建由 Callum Hart 编写的弹性 JavaScript UI
- Arihant Verma 编写的 React Children 和 Iteration Methods
- 令人沮丧的设计模式:Vitaly Friedman 编写的禁用按钮
成绩单
Drew McLellan:她是包容性安全项目的创始人,也是《为安全而设计》一书的作者,该书本月从 A Book Apart 推出。 她是 8th Light 的首席设计师,负责设计和构建定制软件,并就安全和包容性的设计策略提供咨询。 我们知道她是设计技术以保护弱势群体的专家,但你知道她是叉车上最多甜甜圈的国际纪录保持者吗? 欢迎我的好朋友,Eva PenzeyMoog。 嗨,伊娃,你好吗?
Eva PenzeyMoog:我太棒了。
德鲁:很高兴听到。 今天我想和你谈谈设计产品和体验的原则,同时考虑到弱势用户的安全。 从一开始就对我们可能涉及的任何特定主题发出某种触发警告是否公平?
伊娃:当然,是的。 谢谢你提出来。 明确提及家庭暴力,也可能是一些虐待老人和虐待儿童,肯定会触发警告。
德鲁:这很重要。 随意。 如果您担心这些问题中的任何一个,它可能是您的诱因。 随意跳过它们。 我们下集见。 为我们安排对话,伊娃。 当我们谈论安全设计时,我们在谈论什么样的安全问题? 我们不是在谈论自动驾驶汽车的接口。 这不是那种安全,是吗?
伊娃:对,没错。 是的。 当我谈论安全时,我实际上是在谈论人际安全,即用户可以将我们的产品武器化以以人际方式相互伤害的方式。 认识的人,住在一起的人,很多来自恋人的家庭暴力,还有父母和孩子。 在监视领域还有更多的雇主和雇员。 但是,在我所说的安全方面,需要有内在的个人实际关系,而不是,是的,互联网上的某个匿名者或某个试图获取您的数据的匿名实体,诸如此类。
德鲁:会不会是像……这样简单的问题?或不公开。 但是,如果没有适当的保护措施,这类事情也可能成为某种滥用控制的载体。
伊娃:是的,绝对的。 绝对任何时候您允许用户互相发送任何类型的文本,都存在滥用的可能性。 Facebook 消息,那个更明显一点,我认为……嗯,我希望他们确实有一些保护措施,他们认识到也许你不想看到某些消息或想让某人与你联系。 但是,我在做研究时遇到的一个非常有趣和相关的问题是许多不同的银行应用程序或服务,比如 Venmo,它们可以让你分享资金。 通常有一个空间用于消息。 至少对于 Venmo,它是必需的。
Eva:有些银行,这是可选的,但是人们会向某人发送一分钱,然后会收到一些辱骂性信息或一些真正有害、可怕或威胁的东西,而收到这些信息的用户实际上没有办法标记或说, “我想阻止这个用户,因为你为什么要阻止别人向你汇款。” 在这种情况下,我认为设计师根本没有考虑到施虐者总是在寻找做这种事情的方法。 他们很有创意,设计中没有考虑到这一点。
德鲁:我们经常谈论设计幸福的道路,让一切都按设计使用,体验顺利。 然后,作为工程师,我们会考虑在验证失败或 API 关闭方面可能会出现什么问题。 但我不确定……作为一个行业,在考虑用户安全时,我们是否对这些技术可能被滥用的方式存在很大的盲点?
伊娃:是的。 我绝对认为有一个巨大的盲点。 人们非常熟悉这些各种威胁模型,就像我提到的那样,匿名者在 Twitter 上骚扰你,不同的实体试图侵入银行公司的数据,诸如此类。 但我们称之为家庭暴力威胁模型,这是一种非常不同的模型,这是大多数人没有考虑的模型,这一直是我发表演讲时的反馈,在大流行停止会议之前设计反对家庭暴力. 人们总是这样说,“我从来没有听说过这个。 我不知道。” 这就是我的演讲、我的书和我的工作的总体目标是帮助人们理解这是什么以及如何处理它,因为它只是一个巨大的盲点。
Drew:我认为我们确实有一种倾向,显然假设每个用户都和我们一样是危险的。 就像构建服务或产品的人一样,就像我们的士兵、我们的朋友和我们的家人以及我们认识的人一样,假设每个人都处于稳定的家庭环境中,并且完全拥有或控制他们的服务和设备。 情况并非总是如此,不是吗?
伊娃:是的,绝对的。 绝对不总是这样。 我想我们可能会看看我们的朋友和家人,并认为每个人的关系都很好,但我发现大多数遭受家庭暴力的人肯定并没有完全告诉他们生活中的每个人并大声喊叫屋顶。 大多数人,仅根据统计数据,它是如此普遍。 您可能确实认识曾经处于这种情况或目前处于这种情况的人,他们只是没有真正谈论它,或者他们可能没有分享行为的全部范围。
伊娃:在很多方面,人们在工作场所没有真正考虑过这件事是可以理解的,因为这不是我们在社会和一般生活中考虑的事情,我们在工作场所复制了它。 我的工作是试图让我们更明确地谈论它。
德鲁:当涉及到这些考虑时,我们应该考虑哪些事情? 想一想其他人何时可以访问您的帐户,或者如果合作伙伴知道您的密码并且可以进入,您会认为该产品被设计为由一个人控制,但现在可能有人不法分子正在访问它。 有哪些考虑?
伊娃:是的。 嗯,有很多不同的事情,但这是我拥有的一个非常大的事情......我的新书中的三个主要章节集中在发生这种情况的三个不同领域,而你刚才提到的是其中一个的重点他们关于为多人设计的产品的控制和电源问题。 诸如共享银行帐户之类的东西,Netflix 或 Spotify 之类的东西,诸如各种不同的家用设备之类的东西,物联网设备之类的东西,表面上是供多人使用的。 但假设每个人都是一个受人尊敬的人,他们不希望找到另一种方式来制定权力和控制周围的人。
Eva:很多联名银行账户或共享信用卡服务之类的东西都伪装成联名账户,但实际上一个人拥有更大的权力。 例如,这发生在我身上,这真的很令人沮丧,因为我处理了婚姻中的大部分财务问题。 但是当我们几年前建立我们的第一个联合银行账户时,他们将我丈夫设置为主要用户,这基本上意味着是他的公开数据被用来创建安全测验。 当我从一个新的 Wi-Fi 网络登录我们的银行时,我不得不问他,你小时候住在这些街道中的哪一条? 他们实际上大多是......其中一些我可以回答。
伊娃:我知道他从来没有在加利福尼亚生活过,但他们中的很多人实际上都非常好,即使我们已经在一起很长时间了,我也不得不问他。 他们在阻止某人方面非常有效。 不过好像这应该是联名账号,为什么会……其实只是他的一个账号,我也可以访问。 很多问题是,他们允许某人拥有更多控制权,因为他无法给我答案,然后我就无法获得我们的财务状况,而无需致电银行或经历某些事情并经历不同的过程。 是的。 许多不同的控制问题。
Eva:我认为,每当你设计一个涉及多个用户的产品时,都要考虑一个用户如何使用它来控制另一个人,然后我们如何对此采取一些保护措施,要么让它一个人没有控制权。 如果这不可能,我们如何至少确保对方确切了解正在发生的事情并确切知道如何重新获得权力? 我们可以给他们一个电话号码,某种设置来改变吗? 不管是什么,这一切都变得有点复杂。
伊娃:我在书中确实有一个关于这在实践中的实际情况的完整过程,比仅仅考虑家庭暴力或只考虑谁在控制中更具体一些。 我不觉得这种建议超级有用。 我确实有一个非常彻底的过程,设计师可以在他们实际现有的设计过程之上投入其中一些东西。
德鲁:我猜,你在哪里有这些帐户……拥有一个帐户是一个司空见惯的概念。 我们正在构建基本构建块的产品或服务,好吧,我们有一个用户帐户。 在设置帐户时,我们可能甚至没有真正仔细考虑过各种问题,并认为帐户与负责帐户的人不同? 通常,他们只是被认为是一个实体,然后你必须将其他实体添加到它上面来创建联合账户和诸如此类的东西。 但还要考虑到如果两个人分道扬镳,那个账户会发生什么的问题,将来怎么能分开呢? 这是我们应该从一开始就考虑的事情吗?
伊娃:是的,绝对的。 这是你提出的一个非常好的观点。 我认为我真正强烈感受到的一件事是,当我们在设计中以不同类型虐待的幸存者为中心时,我们最终会制造出对每个人都更好的产品。 我确实采访了相当多的人,特别是关于经济虐待因素,这在家庭暴力环境中很常见。 统计数据是 99% 的人处于家庭暴力关系中,其中存在一些非常普遍的经济虐待因素。 但我最后也采访了一些悲惨地失去了他们的配偶,一个人已经死了,他们有一个联名账户。
伊娃:这就像一个漂亮的......这是一个非常常见的,可悲的是,场景,但这并不是很多这些产品旨在处理的事情,并且可能需要数年才能真正完全控制一个共享帐户或类似......当我奶奶去世时,她很有远见,她让我父亲可以接触到一切。 但即便如此,他仍然需要很长时间才能真正解决所有问题,因为这些产品并不是为了处理这样的事情而设计的。 但是,如果我们以幸存者为中心,想一想,是的,当两个人分开时会是什么样子,并且能够有效地处理它,那最终将帮助其他人在其他情况下。
Drew:我们认为很多人会考虑入职流程、创建新帐户以及将人们带入产品中,然后忘记考虑他们以任何方式离开时会发生什么,无论他们是否不幸死去,或者如何在过程的另一端。 我认为它没有得到真正可以从中受益的关注。
伊娃:是的。
德鲁:我们在口袋里随身携带手机,它们是非常个人化的设备,它们通常是我们获取信息、财务和交流的关键。 在不利的情况下,这很容易......它是一种个人设备这一事实可能成为控制和滥用的载体。 想想定位服务,Apple 的 Find My 之类的服务,如果你有学龄儿童,那就太好了. 它在很多方面都是一项安全功能,但该功能可以被颠覆,不是吗?
伊娃:是的,绝对的。 是的,我很高兴你提出这个问题,因为这些产品中有很多是儿童的安全功能。 是的,当然,父母想知道他们的孩子在哪里,他们想确保他们的安全,这可能是一个非常有效的工具。 我确实认为父母过度使用这些产品存在很多问题。 我发现了一些大学生的情况,他们仍然被父母检查,如果他们去校外聚会就会接到电话,比如你为什么不在宿舍? 像这样的东西。 它可能会变得太多。 但是,是的,在大多数情况下,这些都是很棒的产品。 但是很多人确实会滥用这些来跟踪那些不同意跟踪其位置的成年人,而且很多时候他们要么……
Eva:你必须像谷歌地图那样进入服务,例如位置共享。 您必须进入它才能看到您正在与某人共享它。 没有警报。 与“查找我的”类似。 正在跟踪其位置的用户确实会收到警报,但是在家庭暴力的情况下,施虐者很容易在他们看到它之前删除该人手机上的警报,然后那个人就没有其他方法了将会意识到这甚至正在发生。 我认为这是一个很好的例子,说明当我们创造最终关乎儿童安全的东西时,滥用案件并未被考虑在内。 但是我们必须意识到,在这些其他环境中,有很多人会使用它而不是孩子。
德鲁:我想在一段关系中,你可能会同意在某个时间点非常愿意跟踪你的位置,然后你可能不明白这种情况会继续,也可能不知道这种情况仍在继续,而你正在在不知不觉中被跟踪。
伊娃:是的。 这是一件非常重要的事情要考虑,因为在虐待关系中,它不像……虐待并不是从第一天开始的,在大多数情况下。 一开始通常是一段非常好的关系,然后他们慢慢引入不同形式的控制权,夺取权力,将这个人从他们的支持网络中移除,这一切都会随着时间的推移而发生,通常是多年,因为如果你刚刚开始这样做第一次约会,大多数人会说,“是的,不,我出去了。” 但是一旦有了这种爱的关系,就很难离开那个人了。
伊娃:但是,是的,很多时候在关系开始时完全安全的事情不再安全,但那个人早就忘记了他们与这个人分享了他们的位置,然后又一次不好提醒方式。 值得称赞的是,谷歌每 30 天发送一封电子邮件,尽管有些人说他们实际上并没有那么频繁地收到邮件,有些人确实如此。 我不确定到底发生了什么,但他们确实发送了一封摘要电子邮件,这些人都是您与之共享位置的人,这真是太棒了。
伊娃:但我确实认为30天内可以造成很多伤害。 我更喜欢更频繁甚至无所不在的东西,让你知道这种情况正在发生,或者更频繁地发生,然后会让施虐者删除该通知。 是的,这是一个非常好的观点,是同意。 很多事情都来自性侵犯同意的做法。 我认为与技术有很大的相关性。 仅仅因为您过去同意某事并不意味着您现在或将来同意它。 但在科技领域,我们会说,“嗯,他们五年前就同意了,所以同意,它仍然有效”,但事实并非如此。 我们应该稍后再征得他们的同意。
德鲁:是的,它提出了各种各样的挑战,不是吗? 在如何设计这些东西时,因为您不想在产品设计中设置太多障碍,以至于它变得无用。 或者,如果您正在跟踪一个孩子,而他们那天并没有真正重新同意,突然间,他们失踪了,而且他们没有启用该服务。 但同样,确保该同意仅在真正给予的情况下持续进行。 我认为在共享文档中很容易,如果你使用谷歌文档,或者其他什么,看看当时谁在看那个文档,所有的图标都会出现,如果……所有不同用户的头像和有访问权。 当人们访问您的位置时,您认为这些解决方案同样适用吗?
伊娃:是的,完全。 是的,它确实变得粘稠。 这些东西没有很多直接、简单的解决方案,而且,是的,你想……也许让你八岁的孩子每天都同意不是一个好主意,因为如果有一天他们就像,“不”,或者他们错误地说不或其他什么,然后突然之间,你找不到他们。 是的,这是一个真实的场景。 我认为,对于其中一些东西,我认为说“好吧,这个作品不应该存在,或者你应该每天都得到同意”是不现实的。
Eva:但是在那些情况下,你仍然可以做一些事情,比如告诉这个人这个人,这个其他用户可以查看他们的位置,即使他们无能为力。 至少给他们这些信息,让他们清楚地了解正在发生的事情,然后如果他们处于虐待关系中,可以采取行动保护自己的安全,这将非常有用。 也许现在他们知道了,好吧,当我在午餐时间离开办公室去见我的朋友时,我不会随身携带手机,因为她总是非常主张我离开办公室。关系,如果我带上手机,他就会知道我去了某个地方。
伊娃:但如果我把手机放在办公室,他就不会知道。 能够做出这些类型的明智决定。 即使您不一定能够结束位置共享,我们也肯定可以做其他事情来保证用户的安全,同时仍然保留功能产品的核心功能。
德鲁:是的。 它归结为设计决策,不是吗? 找到困难问题的解决方案,但首先要了解问题存在并且需要解决,我认为这就是这次对话对于理解事物的不同使用方式非常重要的地方。 我们越来越多地拥有带有麦克风和摄像头的设备。 我们家里和门铃上都有很多监控摄像头,秘密监控不再只是间谍电影和警察节目中的东西,是吗?
伊娃:是的。 哦耶。 这是一个巨大的问题。 我对这些东西有很强烈的感觉,我知道很多人真的很喜欢这些设备,我认为这完全没问题。 我确实认为它们被大量用于监视。 我认为很多配偶和家庭成员,但也有很多……这是我认为与孩子打交道的地方,至少对我来说,甚至孩子也有一些隐私权变得更加明确,尤其是当你看到青少年需要更多的独立性并且他们需要空间时,独立性确实在进行大脑发育。
伊娃:我认为有一些方法可以帮助您的孩子在网上安全并做出正确的决定,并且有时也可以检查他们在做什么,而不是让您经常观察他们或不断将自己注入他们的生活中他们不想要的。 但是,是的,过多的不同监控设备刚刚失控,人们一直在使用这些设备来暗中监视对方,甚至不公开。 有时它是公开的,就像,“是的,我在看着你。 你打算怎么办呢? 你不能,因为我们处于这种关系中,我选择使用暴力来保持我的权力和对你的控制。”
Eva:这成了一个非常大的问题。 我经常遇到的是人……这成为施虐者将幸存者与他们的支持网络隔离开来的另一种方式。 您不能与您的朋友、兄弟姐妹或治疗师进行私人电话交谈。 突然之间,你家中没有一个地方是真正的私人空间,这在人们被迫呆在家里的大流行期间也是一个非常大的问题。 我们已经看到家庭暴力的大幅增加,以及技术助长了家庭暴力,因为施虐者有更多的时间来弄清楚如何做这些事情,而且他们必须控制的空间要小得多。 很多人一直在这样做。 这真是个大问题。
德鲁:我希望这类产品、监控摄像头和你所拥有的产品的制造商会说,“我们只是在这里制造工具。 我们对它们的使用方式不承担任何责任。 我们对此无能为力。” 但是你会争辩说,是的,他们确实对这些工具的使用方式负有责任吗?
伊娃:是的,我会的。 首先,我会告诉那些这样说的人,“在你成为科技公司的员工之前,你首先是一个人,资本主义的赚钱人。 你是一个人,你的产品正在影响人类,你要为此负责。” 我要说的第二件事是,仅仅要求我们的用户具有更高水平的技术素养是一种真正有问题的心态,因为我们这些从事技术工作的人很容易说,“嗯,人们只需要学习更多关于它。 如果有人不了解我们的产品是如何被使用的,我们概不负责。”
Eva:但大多数人不从事科技工作,显然,他们仍然有很多真正精通科技的人,他们不在科技行业工作。 但要求人们准确了解他们拥有的每一个应用程序,他们在手机或笔记本电脑上使用的每一件东西,他们家中的每一台设备,了解每一个功能并确定它可能的方式用来对付他们,那是一个巨大的负担。 如果你只是想你的一个产品,这似乎没什么大不了的,哦,好吧,当然,人们应该花时间去理解它。
伊娃:但我们谈论的是几十种产品,我们让那些正在经历危险情况的人去了解这些产品,这是非常不现实和非常不人道的,特别是考虑到滥用和监视以及这些不同的事情会做什么如果您一直处于受到威胁的状态并且一直处于这种生存模式,那么您的大脑就会受到影响。 你的大脑将无法拥有完整的执行功能,无法弄清楚、查看这个应用程序并试图确定我的丈夫是如何使用它来监视我或控制我或其他任何事情。 我想说的是,老实说,这是一种糟糕的心态,我们要对人们如何使用我们的产品负责。
德鲁:当您认为大多数人对微波炉上的按钮仅了解一两个按钮时,我们怎么能期望我们了解我们接触到的所有不同应用程序和服务的功能和功能?
伊娃:当然。 是的。
德鲁:在设计产品和服务方面,我觉得作为一个说英语的白人直男,社会赋予我的特权地位让我有一个巨大的盲点,我觉得很天真,我知道这可能在我正在做的事情中导致有问题的设计选择。 是否有我们可以采取的步骤和流程来确保我们暴露这些盲点并尽最大努力走出我们自己的经验领域并包含更多场景?
伊娃:是的,绝对的。 我对此有很多想法。 我认为有几件事。 首先,我们都有责任对自己的盲点进行自我教育。 每个人都有盲点。 我认为也许一个顺式白人男性比其他群体有更多的盲点,但这并不是说有些群体会没有盲点。 每个人都有。 我认为教育自己了解我们的技术可能被滥用的不同方式。 我认为这不仅仅是……显然,人际安全是我工作的重点。 但是还有其他所有的事情,我也一直在努力学习并弄清楚如何确保我正在研究的技术不会使这些不同的事情永久存在。
Eva:我真的很喜欢 Sara Wachter-Boettcher 的 Design For Real Life,而 Eric Meyer 非常适合包容性设计和富有同情心的设计。 但后来我也一直在学习算法、种族主义和性别歧视以及算法的不同问题。 我们需要考虑很多不同的事情,我认为我们都有责任了解这些事情。 然后我还认为,一旦你确定,种族主义将成为这个产品的一个问题,我们需要确保我们正在处理这个问题,并且试图阻止它,并绝对让人们报告种族主义或你有什么。
伊娃:其中一件事,我在书中给出的例子是 Airbnb 存在很多种族主义和种族主义房东的问题。 即使只是关于你是否有的研究……如果你的照片是黑人,你会被拒绝。 与您的照片中有白人相比,您预订住宿的请求会更频繁地被拒绝。 我认为我作为一个白人,这是我认为我不能去了解然后作为这个问题的权威发言的事情。 我认为在这种情况下,您需要聘请具有这种生活经验的人可以为您提供信息,因此请聘请一名黑人设计师顾问,因为显然我们知道技术实际上并没有很大的多样性。
Eva:理想情况下,您的团队中应该已经有人可以对此进行交流,但我认为……但是它是如此复杂。 这就是我们需要队友付出这种劳动的地方吗? 这也可能有问题。 你团队中的黑人可能已经面临很多不同的事情,然后让白人说,“嘿,跟我谈谈你因为种族而遭受的创伤经历。” 我们不应该把这种负担放在人们身上,除非……
伊娃:很多人会愿意提出并谈论它,我会谈论一些事情,我作为女性的经历,但这可能不是我每天都想做的事情。 在这种情况下,雇佣那些为工作做这件事的人,然后总是为他们的生活经历付钱,并使其在实际补偿人们的知识和生活经历方面不具有剥削性。
德鲁:是的。 我认为这确实强调了让不同的团队致力于产品并带来各种不同的体验是多么重要和有益。
伊娃:是的,绝对的。
Drew:您在书中在设计过程中涵盖的一件事是创建施虐者和幸存者原型,以帮助您测试您的功能。 你能告诉我们一些关于这个想法的事情吗?
伊娃:是的。 这是因为想要拥有一种可以帮助人们非常清楚地了解问题所在的角色人工制品。 这是在团队对该问题进行研究并确定涉及人际安全时可能存在的不同问题并且可以非常清楚地阐明这些问题之后发生的事情。 然后你制作施虐者原型,即试图使用你的产品来解决任何伤害的人,然后是幸存者原型,他将成为这种伤害的受害者。 重要的是有目标。 这就像你找到一张照片,或者你甚至不需要一张照片,但它只是阐明了虐待是什么,然后是这个人的目标。
伊娃:如果有人因为想跟踪她而想弄清楚他们的前女友现在住在哪里,那么他的目标就是跟踪她。 然后是幸存者的目标……好吧,对不起,施虐者的目标是使用你的产品。 例如,假设它是 Strava,它是我在书中用作示例的其中之一。 我想用 Strava 追踪我的前女友,然后幸存者原型说,“我想对试图跟踪我的前任保密我的位置。” 然后,您可以使用这些目标来帮助告知您的一些设计并测试您的产品,以查看是否有任何关于幸存者位置数据的信息可供试图找到其位置的人公开使用,即使他们已启用所有隐私特征?
Eva:我以 Strava 为例,因为直到几个月前,才有这种能力。 即使您将所有内容都保密,如果您在附近使用该应用程序的其他人跑步或锻炼一段时间,也不清楚您必须离多近或必须运行多长时间street 作为另一个人,它会将他们标记为出现在您的锻炼中。 这将是施虐者能够实现他的目标的一个例子,他能够以这种方式找到他的前任。 然后你就会知道,好吧,我们需要反对它并阻止这个目标成功。
德鲁:特别是,你不可能想出每一个场景。 你无法弄清楚施虐者在所有情况下都会尝试做什么。 但是,通过涵盖一些可能出现的关键明显问题,我猜你正在为你没有想到的其他滥用行为关闭许多大门。
伊娃:是的。 是的,正是。 That brings up a really good other related point, which is that, yeah, you're probably not going to think of everything. Then having ways for users to report issues and then being the type of team and company that can take those criticisms or issues that users identify with some grace and quickly course correcting because there's always going to be things you don't think about and users are going to cover all sorts of things. I feel like this always happens. Being able to have a way to get that feedback and then to quickly course correct is also a really big part of the whole process of designing for safety.
Drew: Is there a process that would help you come up with these potential problems? Say you're designing a product that uses location data, what process would you go through to think of the different ways it could be abused? Is there anything that helps in that regard?
Eva: Yeah. This is something I get more in depth about in the book, but having some research around it first is the first thing. With location services is a pretty easy one, so to speak. There's so many documented issues with location services. There's also been academic studies done on this stuff, there's lots of literature out there that could help inform the issues that you're going to face. Then the other thing that I suggest that teams do is after doing this research is doing a brainstorm for novel of use cases that have not been covered elsewhere.
Eva: The way I usually do this is I have the team do a Black Mirror brainstorm. Let's make a Black Mirror episode. What's the worst, most ridiculous, just anything goes, worst case scenario for this product or feature that we're talking about? People usually come up with some really wild stuff and it's actually usually really fun. Then you say, “Okay, let's dial it back. Let's use this as inspiration for some more realistic issues that we might come across,” and then people are usually able to identify all sorts of things that their product might enable.
Drew: For people listening who feel like they would really love to champion this area of work within their organization, do you have any advice as to how they could go about doing that?
Eva: Yeah. There is a lot of stuff about this in the book, about integrating this into your practice and bringing it to your company. Advice for things like talking to a reluctant stakeholder whose only concern is, well, how much is this going to cost me? How much extra time is this going to take? Being able to give really explicit answers about things like that is really useful. Also, I have recordings of my conference talk which people usually say, “I had just had no idea that this was a thing.” You can help educate your team or your company.
Eva: I talked about this in the book too, honestly, it can be awkward and weird to bring this stuff up and just being mentally prepared for how it's going to feel to be like, “We should talk about domestic violence,” or, “We should talk about invasive child surveillance.” It can be really hard and just weird. One of the pieces of advice I give is for people to talk to a supportive coworker ahead of time, who can back them up if you're going to bring this up in a meeting and just help reduce the weirdness, and there are some other tactics in the book. But those are definitely the big ones.
Drew: I would normally ask at this point where our listeners should go to find out more about the topic. But I know that the answer is actually to go and read your book. We've only really just scratched the surface on what's covered in Design For Safety, which is out now, this August 2021 from A Book Apart. The book, for me, it's sometimes an uneasy read in terms of content, but it's superbly written and it really opened my eyes to a very important topic. One thing I really like about all the A Book Apart books is they're small and focused and they're easy to consume. I would really recommend that listeners check out the book if the topic is interesting to them.
Eva: Yeah, thanks for that. Theinclusivesafetyproject.com is the website I have to house all of this information. There's a lot of great resources in the back of the book for people who want to learn more. But if you just want something and more immediately, you can go to Theinclusivesafetyproject.com and there's a resources page there that has different sort of articles or studies to look at different people working in related spaces to follow on Twitter, books to read, things like that.
德鲁:对。 I've been learning what it means to design for safety. What have you been learning about, Eva?
Eva: I have been learning about data. I'm reading a really interesting book called Living in Data by Jer Thorp, which I thought it was going to be all about different issues with big data, which is such a big thing but it's actually an extremely thoughtful, much more interesting approach to what it means to live in data and just how much data is taken from us every day and what's done with it and just data out there in the world. It's really interesting and important, and yeah, I would definitely recommend that book.
Drew: No, amazing. If you the listener would like to hear more from Eva, you can follow her on Twitter where she's @epenzeymoog, and you can find all her work linked from her website at evapenzeymoog.com. Design For Safety is published abookapart.com and is available now. Thanks for joining us today, Eva. 你有什么离别词吗?
Eva: Please get vaccinated so that we can go back to normal.