Skip to content

Latest commit

 

History

History
259 lines (166 loc) · 23.7 KB

File metadata and controls

259 lines (166 loc) · 23.7 KB

数据伦理简介

 由 (@sketchthedocs) 绘制的速写笔记
数据科学伦理 - @nitya 绘制的速写笔记

我们都是生活在数据化世界中的数据公民。

市场趋势表明,到2022年,三分之一的大型组织将通过在线市场和交易所买卖数据。作为应用开发者,我们将更容易、更便宜地将数据驱动的洞察和算法驱动的自动化集成到日常用户体验中。但随着人工智能的普及,我们也需要了解这种算法在大规模应用时可能带来的武器化危害。

趋势表明,到2025年,我们将生成和消费超过180泽字节的数据。对于数据科学家来说,这种信息爆炸提供了前所未有的访问个人和行为数据的机会。随之而来的是构建详细用户画像的能力,并在潜移默化中影响决策——通常以一种营造自由选择幻觉的方式进行。虽然这可以用来引导用户朝着偏好的结果发展,但也引发了关于数据隐私、自主权以及算法影响的伦理界限的关键问题。

数据伦理现在是数据科学和工程的_必要护栏_,帮助我们尽量减少数据驱动行为可能带来的潜在危害和意外后果。Gartner人工智能技术成熟度曲线将数字伦理、负责任的人工智能和人工智能治理列为推动人工智能_民主化_和_工业化_等更大趋势的关键因素。

Gartner 2020人工智能技术成熟度曲线

在本课程中,我们将探索数据伦理这一迷人的领域——从核心概念和挑战,到案例研究和应用人工智能概念(如治理),帮助团队和组织建立数据和人工智能的伦理文化。

基本定义

让我们从理解基本术语开始。

“伦理”一词来源于希腊词“ethikos”(及其词根“ethos”),意为_品格或道德本质_。

伦理是关于在社会中规范我们行为的共同价值观和道德原则。伦理不是基于法律,而是基于广泛接受的“对与错”的规范。然而,伦理考虑可以影响公司治理举措和政府法规,从而创造更多的合规激励。

数据伦理是一个新的伦理分支,它“研究和评估与_数据、算法及相关实践_相关的道德问题”。其中,**“数据”关注与生成、记录、管理、处理、传播、共享和使用相关的行为,“算法”关注人工智能、代理、机器学习和机器人,“实践”**关注负责任的创新、编程、黑客行为和伦理规范等主题。

应用伦理道德考虑的实际应用。它是积极调查_现实世界行为、产品和流程_中的伦理问题,并采取纠正措施以确保这些行为与我们定义的伦理价值保持一致的过程。

伦理文化是关于将应用伦理_付诸实践_,以确保我们的伦理原则和实践在整个组织中以一致且可扩展的方式被采纳。成功的伦理文化定义了全组织范围的伦理原则,提供有意义的合规激励,并通过鼓励和放大组织各级的期望行为来强化伦理规范。

伦理概念

在本节中,我们将讨论数据伦理中的共同价值观(原则)和伦理挑战(问题),并通过案例研究来帮助您在现实世界的背景中理解这些概念。

1. 伦理原则

每个数据伦理战略都从定义_伦理原则_开始——即描述可接受行为并指导合规行动的“共同价值观”,用于我们的数据和人工智能项目。您可以在个人或团队层面定义这些原则。然而,大多数大型组织会在公司层面定义这些原则,并通过_伦理人工智能_使命声明或框架在所有团队中一致执行。

**示例:**微软的负责任的人工智能使命声明写道:“我们致力于推动以伦理原则为驱动的人工智能发展,将人放在首位”,并在以下框架中定义了6个伦理原则:

微软的负责任人工智能

让我们简要探讨这些原则。_透明性_和_问责性_是其他原则的基础价值观,因此我们从这里开始:

  • 问责性使实践者对其数据和人工智能操作以及遵守这些伦理原则负责。
  • 透明性确保数据和人工智能行为对用户是_可理解的_(可解释的),并解释决策背后的内容和原因。
  • 公平性——关注确保人工智能对_所有人_公平对待,解决数据和系统中的任何系统性或隐性社会技术偏见。
  • 可靠性与安全性——确保人工智能行为与定义的价值观_一致_,尽量减少潜在危害或意外后果。
  • 隐私与安全——关注理解数据来源,并为用户提供_数据隐私及相关保护_。
  • 包容性——关注有意设计人工智能解决方案,使其适应_广泛的人类需求_和能力。

🚨 想一想您的数据伦理使命声明可能是什么。探索其他组织的伦理人工智能框架——以下是IBMGoogleFacebook的示例。它们有哪些共同的价值观?这些原则与它们所处的人工智能产品或行业有何关系?

2. 伦理挑战

一旦我们定义了伦理原则,下一步就是评估我们的数据和人工智能行为是否与这些共同价值观一致。思考您的行为可以分为两个类别:数据收集_和_算法设计

在数据收集方面,行为可能涉及个人数据或可识别的个人信息(PII),这些信息可以识别特定的活体个体。这包括各种非个人数据,这些数据_共同_可以识别一个个体。伦理挑战可能与_数据隐私_、数据所有权_以及相关主题(如_知情同意_和用户的_知识产权)有关。

在算法设计方面,行为将涉及收集和管理数据集,然后使用它们训练和部署数据模型,以在现实世界中预测结果或自动化决策。伦理挑战可能来自_数据集偏差_、_数据质量_问题、不公平性_以及算法中的_误导性表现——包括一些系统性问题。

在这两种情况下,伦理挑战都突出了我们的行为可能与共同价值观发生冲突的领域。为了检测、缓解、最小化或消除这些问题,我们需要针对我们的行为提出道德的“是/否”问题,然后根据需要采取纠正措施。让我们看看一些伦理挑战及其引发的道德问题:

2.1 数据所有权

数据收集通常涉及可以识别数据主体的个人数据。数据所有权是关于与数据的创建、处理和传播相关的_控制_和用户权利

需要提出的道德问题包括:

  • 谁拥有数据?(用户还是组织)
  • 数据主体拥有哪些权利?(例如:访问、删除、可移植性)
  • 组织拥有哪些权利?(例如:纠正恶意用户评论)

2.2 知情同意

知情同意定义了用户在充分了解相关事实(包括目的、潜在风险和替代方案)的情况下同意某一行为(如数据收集)的行为。

需要探讨的问题包括:

  • 用户(数据主体)是否允许数据捕获和使用?
  • 用户是否理解数据捕获的目的?
  • 用户是否理解参与可能带来的潜在风险?

2.3 知识产权

知识产权指的是人类创造的无形成果,这些成果可能对个人或企业具有_经济价值_。

需要探讨的问题包括:

  • 收集的数据是否对用户或企业具有经济价值?
  • 用户是否拥有知识产权?
  • 组织是否拥有知识产权?
  • 如果这些权利存在,我们如何保护它们?

2.4 数据隐私

数据隐私或信息隐私指的是保护用户隐私和用户身份不被泄露的行为,特别是涉及个人可识别信息时。

需要探讨的问题包括:

  • 用户的(个人)数据是否安全,防止黑客攻击和泄漏?
  • 用户的数据是否仅对授权用户和场景可访问?
  • 数据共享或传播时是否保留了用户的匿名性?
  • 用户是否可以从匿名数据集中被去识别?

2.5 被遗忘权

被遗忘权删除权为用户提供了额外的个人数据保护。具体来说,它赋予用户在特定情况下请求从互联网搜索和其他位置删除或移除个人数据的权利——允许他们在网上重新开始,而不受过去行为的影响。

需要探讨的问题包括:

  • 系统是否允许数据主体请求删除?
  • 用户撤回同意是否应触发自动删除?
  • 数据是否未经同意或通过非法手段收集?
  • 我们是否符合政府关于数据隐私的规定?

2.6 数据集偏差

数据集或收集偏差是指选择一个_非代表性_的数据子集用于算法开发,从而可能导致对不同群体结果的不公平性。偏差类型包括选择或抽样偏差、志愿者偏差和工具偏差。

需要探讨的问题包括:

  • 我们是否招募了一个具有代表性的数据主体集合?
  • 我们是否测试了收集或管理的数据集以发现各种偏差?
  • 我们是否可以缓解或消除发现的偏差?

2.7 数据质量

数据质量关注用于开发算法的管理数据集的有效性,检查特征和记录是否满足人工智能目的所需的准确性和一致性要求。

需要探讨的问题包括:

  • 我们是否捕获了适合我们用例的有效_特征_?
  • 数据是否在不同数据源之间_一致_地捕获?
  • 数据集是否在不同条件或场景下_完整_?
  • 信息是否被_准确地_捕捉并反映了现实?

2.8 算法公平性

算法公平性检查算法设计是否系统性地对特定数据主体的子群体存在歧视,从而导致在_资源分配_(资源被拒绝或剥夺)和_服务质量_(AI对某些子群体的准确性不如对其他群体)方面的潜在危害

需要探讨的问题包括:

  • 我们是否评估了模型在不同子群体和条件下的准确性?
  • 我们是否仔细检查了系统可能带来的危害(例如,刻板印象)?
  • 我们是否可以通过修订数据或重新训练模型来减轻已识别的危害?

探索类似AI公平性检查清单的资源以了解更多信息。

2.9 数据误导

数据误导是指我们是否在传达从诚实报告的数据中得出的洞察时,以欺骗性的方式支持某种期望的叙述。

需要探讨的问题包括:

  • 我们是否报告了不完整或不准确的数据?
  • 我们是否以误导性结论为目的可视化数据?
  • 我们是否使用选择性的统计技术来操纵结果?
  • 是否存在可能提供不同结论的替代解释?

2.10 自由选择的假象

自由选择的假象发生在系统的“选择架构”使用决策算法引导人们采取某种偏好的结果,同时看似给了他们选择和控制权。这些暗黑模式可能对用户造成社会和经济上的伤害。由于用户的决策会影响行为画像,这些行为可能会推动未来的选择,从而放大或延续这些伤害的影响。

需要探讨的问题包括:

  • 用户是否理解做出该选择的影响?
  • 用户是否了解(替代)选择及其各自的优缺点?
  • 用户是否可以在之后撤销自动化或被影响的选择?

3. 案例研究

为了将这些伦理挑战置于现实世界的背景中,可以查看一些案例研究,这些案例突出了当忽视伦理问题时,对个人和社会可能造成的危害和后果。

以下是一些示例:

伦理挑战 案例研究
知情同意 1972年 - 塔斯基吉梅毒研究 - 参与研究的非裔美国男性被承诺提供免费医疗服务,但研究人员_欺骗了他们_,未告知其诊断结果或治疗的可用性。许多受试者因此死亡,其伴侣或子女也受到影响;该研究持续了40年。
数据隐私 2007年 - Netflix数据奖向研究人员提供了_50000名客户的1000万条匿名电影评分_,以帮助改进推荐算法。然而,研究人员能够将匿名数据与_外部数据集_(如IMDb评论)中的个人身份数据相关联,从而有效地“去匿名化”了一些Netflix用户。
数据收集偏差 2013年 - 波士顿市开发了Street Bump,一款让市民报告路面坑洞的应用,为城市提供更好的道路数据以发现和修复问题。然而,低收入群体的人们较少拥有汽车和手机,使得他们的道路问题在该应用中不可见。开发者与学术界合作,解决_公平性_问题,如数字鸿沟和公平访问。
算法公平性 2018年 - 麻省理工学院Gender Shades研究评估了性别分类AI产品的准确性,揭示了女性和有色人种的准确性差距。2019年Apple Card似乎为女性提供的信用额度低于男性。这两者都说明了算法偏差导致的社会经济危害问题。
数据误导 2020年 - 乔治亚州公共卫生部发布的COVID-19图表似乎通过非时间顺序的x轴排序误导了公民对确诊病例趋势的理解。这说明了通过可视化技巧进行误导的情况。
自由选择的假象 2020年 - 学习应用ABCmouse支付了1000万美元以解决FTC投诉,家长被困于无法取消的订阅中。这说明了选择架构中的暗黑模式,用户被引导做出可能有害的选择。
数据隐私与用户权利 2021年 - Facebook 数据泄露暴露了5.3亿用户的数据,导致向FTC支付了50亿美元的和解金。然而,它拒绝通知用户数据泄露的情况,侵犯了用户关于数据透明性和访问的权利。

想了解更多案例研究?查看以下资源:

🚨 想想你见过的案例研究——你是否经历过或受到过类似伦理挑战的影响?你能想到至少一个其他案例来说明我们在本节中讨论的伦理挑战之一吗?

应用伦理

我们已经讨论了伦理概念、挑战以及现实世界中的案例研究。但我们如何开始在项目中_应用_伦理原则和实践?我们又如何_实现_这些实践以改进治理?让我们探索一些现实世界的解决方案:

1. 职业准则

职业准则为组织提供了一种选择,用以“激励”成员支持其伦理原则和使命声明。准则是专业行为的_道德指南_,帮助员工或成员做出符合其组织原则的决策。它们的有效性取决于成员的自愿遵守;然而,许多组织提供额外的奖励和惩罚以激励成员遵守。

示例包括:

🚨 你是否属于某个专业工程或数据科学组织?浏览他们的网站,看看是否定义了职业伦理准则。这些准则反映了哪些伦理原则?他们如何“激励”成员遵守准则?

2. 伦理清单

虽然职业准则定义了从业者的_伦理行为_要求,但它们在执行方面存在已知的局限性,特别是在大规模项目中。因此,许多数据科学专家提倡使用清单,以更确定和可操作的方式将原则与实践联系起来

清单将问题转化为“是/否”任务,可以被操作化,允许它们作为标准产品发布工作流程的一部分进行跟踪。

示例包括:

  • Deon - 一个通用的数据伦理清单,由行业建议创建,并配有命令行工具以便于集成。
  • 隐私审计清单 - 从法律和社会曝光的角度提供信息处理实践的一般指导。
  • AI公平性清单 - 由AI从业者创建,以支持在AI开发周期中采用和集成公平性检查。
  • 数据与AI伦理的22个问题 - 一个更开放的框架,结构化用于设计、实施和组织背景下伦理问题的初步探索。

3. 伦理法规

伦理是关于定义共同价值观并_自愿_做正确的事情。合规是关于_遵守法律_(如果有定义的话)。治理则涵盖了组织为执行伦理原则和遵守既定法律所采取的所有方式。

今天,治理在组织中有两种形式。首先,它是关于定义伦理AI原则并建立实践,以在组织的所有AI相关项目中实现采用。其次,它是关于遵守其运营地区所有政府规定的数据保护法规

数据保护和隐私法规的示例:

🚨 欧盟定义的GDPR(通用数据保护条例)仍然是当今最具影响力的数据隐私法规之一。你知道它还定义了8项用户权利以保护公民的数字隐私和个人数据吗?了解这些权利是什么以及它们为何重要。

4. 伦理文化

需要注意的是,在_合规_(做到“法律条文”要求的最低限度)和解决系统性问题(如僵化、信息不对称和分配不公平)之间仍然存在无形的差距,这些问题可能加速AI的武器化。

后者需要协作定义伦理文化的方法,在行业内跨组织建立情感联系和一致的共同价值观。这需要在组织中正式化数据伦理文化,允许_任何人_ 拉下安灯绳(在过程中早期提出伦理问题),并将_伦理评估_(例如,在招聘中)作为AI项目团队组建的核心标准。


复习与自学

课程和书籍有助于理解核心伦理概念和挑战,而案例研究和工具则有助于在现实世界中实践应用伦理。以下是一些入门资源。

作业

撰写数据伦理案例研究


免责声明
本文档使用AI翻译服务 Co-op Translator 进行翻译。尽管我们努力确保翻译的准确性,但请注意,自动翻译可能包含错误或不准确之处。原始语言的文档应被视为权威来源。对于关键信息,建议使用专业人工翻译。我们对因使用此翻译而产生的任何误解或误读不承担责任。