|
Post by account_disabled on Jan 8, 2024 0:20:55 GMT -6
迪尔·努内斯 2023 年 9 月 26 日晚上 7:18 社论: 国际的政策技术 参议院正在处理第 (PL) 2,338 号法案,该法案旨在规范巴西 [1]人工智能 (AI) 的使用,其灵感来自于欧洲法规的几个方面,力求使基于权利的方法与风险兼容-基于方法[ 2]。 一方面,这意味着对人工智能中适用的权利和道德前提的关注,例如公平、责任、透明度和道德(英文“Fate” 的缩写),它试图衡量许多人工智能模型的事实,具体取决于集合提供给它的数据(数据集)或架构和方法 Whatsapp 号码列表 的选择,可能会产生有偏见的反应(算法歧视)、不公平或不道德。 在这方面,在标准可以在技术领域 产生强制力的范围内,它试图促进控制,但仍然缺乏对地缘文化多样性的足够愿景[3],因为我们仍然几乎完全依赖于由技术产生的人工智能模型。大型参与者和数据集不太适应我们的文化多样性。 然而,另一方面,立法提案带来了不同的做法。随着人工智能已经成为一种通用技术,就像电力一样,它渗透到我们生活的各个方面,并根据其用途带来不同的风险,带来巨大的好处,但也带来潜在的危害。 产生了众所周知的基于风险的方法(风险分类——PL 第13至18条) [4],重点是过度风险和高风险模型。 应该指出的是,司法行政被认为是高风险的人工智能建模领域,见第 17 条第七条 [5]。 然而,PL并没有明确指出,特别是在更普遍使用的基础模型 出现后[6],例如vg。GPT 和 Bert 是具有多种用途的生成式 AI( GEN AI,例如ChatGPT、Midjourney、Gamma.app等)的基础,简单地对风险进行分类不足以建立充分的治理。甚至 MEP 也提出需要对这些新模型的版权法所涵盖的这些模型的训练数据进行总结 [7]。 必须认识到,即使是更传统的分析人工智能也会带来风险。事实上,正是从他们那里出现了与算法歧视相关的担忧,著名的Compas 案例就证明了这一点[8]。 值得注意的是,监管提案中最敏感的话题之一是一般条款和不确定概念的采用。其中之一是术语“潜意识技术”,它指的是旨在遏制旨在影响个人、诱发某些行为的公认做法的工具。这种影响范围从简单的购买刺激到对选举的重大干预,影响着民主的可持续性。因此,人们对使用人工智能系统进行操纵的担忧由来已久。 许多人没有意识到的是,此类法规不能仅限于对人工智能技术的控制,因为这种行为诱导涉及行为设计(及其黑暗模式)的使用[ 9],而 行为设计利用了人类决策知识的使用- 制作过程的理性有限。 事实上,法律的技术转向 [10]需要通过跨学科的视角来分析信息和通信技术的影响,重点是人工智能,此外还需要使用行为(和说服性)设计,通过使用认知行为心理学 [11]和神经科学。 从这些角度来看,拟议的法规由于不了解问题的严重程度而受到限制,并且通过使用宽泛和不确定的术语,它们将面临重大的执行挑战。
|
|