科技巨头当然知道这一点。在过去的几年里,随着公众对他们的行为越来越不信任,他们的 AI 研究和技术面临越来越多的批评,他们不得不迅速学习这门艺术。
现在,他们想证明他们对 AI 开发方式的担忧是合理的,但他们想确保它不会引起太多审查,因此他们开发了一个新的词汇。这是解释他们的语言并挑战他们的假设和价值观的内部指南。
(责任,名词) – 当 AI 系统出现故障时,让他人对 AI 系统的后果负责的行为。
(准确性,名词) – 技术正确性。这是评估 AI 模型性能时衡量成功的最重要标准。
(对手,名词) - 即可以摧毁你强大且有利可图的 AI 系统的独立工程师,请参阅 和 。
(联盟,名词)– 设计一个 AI 系统的挑战,该系统执行我们的命令,重视我们重视的一切,并故意转移注意力。避免使用不良意外后果的真实示例,请参阅。
(通用人工智能,短语)——一个假想的人工智能神,可能会出现在遥远的未来,但也可能是迫在眉睫的。无论好坏,只要它有意义,但你显然是在打造一个好的 AI 之神。这很昂贵,因此,您需要更多的资金,请看长远。
(审计,名词) – 您付钱请人审计您的公司或 AI 系统,这样您就不必进行任何更改来看起来更透明,请参阅。
(增加,动词) – 即提高白领工人的生产力。副作用:自动化使蓝领工人工作变得可悲但不可避免。
(有益的,形容词) – 即你想要构建的系统的一般描述,最好是 ,见 。
通过(精心设计的短语)——例如“精心设计的公平”或“精心设计的责任”,这个短语表明你从一开始就认真考虑什么是重要的。
(服从,名词)——也就是说,要依法行事,任何不违法的事情都是可以接受的。
数据 – 据说这些人躲在亚马逊的“土耳其机器人”界面后面,以低廉的价格进行数据清理,不确定他们是谁,也从未见过他们。
(民主化,动词) – 即不惜一切代价扩展技术,以及集中资源的理由,见 。
、、和(多样性、公平和包容性,短语)——从边缘化群体中雇用工程师和研究人员的行为,这样你就可以公开他们,如果他们挑战现状,就可以解雇他们。
(效率,名词)——即构建一个数据、内存、人员或工作量更少的 AI 系统。
(道德委员会,短语)——即一群没有实权的顾问,他们聚集在一起是为了让你的公司看起来愿意倾听。比如谷歌的人工智能伦理委员会(已退休)、监督委员会(仍在原地)。
(道德原则,短语)——一句陈词滥调,用来表明你有好的动机。保持高位,语言越模糊越好,参见 AI。
(可解释,形容词) - 描述您、开发人员和用户都可以理解的 AI 系统,但用户很难实现,并且可能不值得,请参阅。
(, noun) – 一个复杂的概念,用于描述公平算法,可以根据您的喜好以数十种方式进行定义。
永远的(永久的短语)——例如“永久 AI”或“一劳永逸的数据”。与您的核心业务完全无关的计划可以帮助您宣传。
(, 名词) – 即展望未来的能力。这基本上是不可能的,所以有一个非常合理的解释来解释为什么你的 AI 系统无法摆脱这些意外的后果。
(框架,名词) – 即一套指导决策的指导方针。当您在实际过程中拖延决定时,这是一种让您显得深思熟虑和深思熟虑的好方法。
(可推广,形容词) – 一个好的 AI 模型的标志,即尽管条件发生变化但仍能继续工作的 AI 模型,参见真实。
(管理风格,名词)——即官僚主义。
- (以人为中心的设计,短语) – 这个过程涉及放入一个 “角色” 来想象普通用户可能希望从您的 AI 系统中获得什么,如果您有时间,可能需要征求实际用户的反馈。
在循环中 – 每个人都是 AI 系统的一部分。责任范围从伪造系统的能力到逃避对自动化的指控。
(影响评估,短语) – 您自己对公司或 AI 系统的评估,以表明您愿意在不进行更改的情况下看到其缺点,请参阅。
(说明性、形容词) – 作为开发人员,您可以逐步遵循的 AI 系统描述,以了解系统是如何得出答案的。事实上,它可能只是一个线性回归。AI 听起来更好。
(, 名词) – 即破坏模型技术性能或公司扩展能力的因素。不要把它与对社会有害的问题混淆,也不要把(诚实)与它混淆。
(, ) – 这个术语被任何团队或项目使用,这些团队或项目的人不会怎么编码,包括用户研究人员、产品经理、道德哲学家,尤其是道德哲学家。
Long-term (长期风险,名词) – 在遥远的将来可能会产生灾难性后果的坏事,这可能永远不会发生,但研究和避免长期风险比避免现有 AI 系统造成的直接伤害更重要。
(伙伴,名词) – 与您有共同世界观并能与您合作维持现状的其他精英团体,请参阅。
-off – 为了集团的利益而牺牲个人对个人信息的控制权,例如 AI 驱动的医疗保健进步,也是非常有利的。
(, 名词) – 科学和技术进步。一个固有的优势。
真实 – 与模拟世界相反,模拟世界是一个充满意外惊喜的动态物理环境,AI 模型在其中接受训练以求生存。不要把它与人类社会混淆。
(监管,名词)– 您呼吁将减轻有害 AI 的责任转移给政策制定者。不要将其与阻碍您的政策混淆。
AI(负责任的人工智能,名词) – 公众认为公司内部确实致力于减轻 AI 系统危害的任何工作。
(健壮性,名词) – AI 模型在恶意输入损坏数据的情况下始终如一且无错误地工作的能力。
(, 名词) – 构建不违背设计师意图的 AI 系统的挑战。不要与构建不会失败的 AI 系统相混淆,请参阅。
(, noun) – 任何优秀的 AI 系统实际上都应该努力实现的最终状态。
(保护措施,名词)——即保护有价值或敏感的数据和 AI 模型不被不良行为者破坏的行为,请参阅。
(利益相关者、名词)——即股东、监管机构、用户。你想取悦当权者。
(透明度,名词) – 即显示您的数据和代码。这对每个人都有害,对敏感信息也不利。所以坦率地说,这是非常困难的,不可能做到的。不要将此解释为对系统实际工作方式的解释。
(值得信赖,形容词) – 对在充分协调的宣传下创建的 AI 系统的评估。
(全民基本收入,短语)– 2020 年总统候选人安德鲁·杨 ( Yang) 推广了向每个人支付固定工资以平息自动化导致大规模失业造成的大规模经济动荡的想法,见。
(, noun) – 使用数据测试 AI 模型以检查模型是否仍然准确,而不是测试它馈入的数据的过程。
(, noun) – 给你的用户带来的无形好处,让你赚很多钱。
(, noun) – 提醒人们您有价值观。
(财富再分配,短语) – 当人们因为你使用了太多资源和赚了太多钱而仔细审查你时,这个想法很有用。财富再分配如何运作?当然是全民基本收入。这需要监管,这不是你自己能弄清楚的事情,见 。
(拒绝发布,短语) – 选择一个非开源的慈善行为,因为这可能会落入坏人之手。最好限制使用购买源代码的合作伙伴。