人工智能安全和偏见:理清人工智能训练的复杂链

跨境快讯 2024-02-01 12:08:34 woniu
2
导读:人工智能正在快速发展。英特尔研究员拉马·纳赫曼 (Lama Nachman) 表示,如果我们现在不构建安全系统,我们就永远不会构建安全系统。

对于安全研究人员来说,人工智能安全和偏见是紧迫而复杂的问题。随着人工智能融入社会的各个方面,了解其发展过程、功能和潜在缺点至关重要。

英特尔实验室智能系统研究实验室主任 Lama Nachman 表示,在人工智能培训和学习过程中纳入不同领域专家的意见至关重要。她表示,“我们假设人工智能系统是向领域专家学习,而不是向人工智能开发人员学习……教授人工智能系统的人不明白如何对人工智能系统进行编程……而系统可以自动学习建立这些动作识别和对话模型。”
这呈现出令人兴奋但可能代价高昂的前景,并且在与用户交互时可以持续改进系统。纳赫曼解释说,“从对话的一般方面来看,你绝对可以利用某些部分,但有很多东西……人们在现实世界中执行事物的特殊性与“你会在 ChatGPT 中做什么。这表明,虽然当前的人工智能技术提供了出色的对话系统,但向理解和执行物理任务的转变是一个完全不同的挑战,”她说。
她说,人工智能的安全可能会受到多种因素的影响,例如目标定义不明确、缺乏稳健性以及人工智能对特定输入的响应的不可预测性。当人工智能系统在大型数据集上进行训练时,它可能会学习并重现数据中发现的有害行为。

人工智能系统的偏见也可能导致不公平的结果,例如歧视或不公正的决策。偏见可以通过多种方式进入人工智能系统;例如,通过用于培训的数据,这可能反映社会中存在的偏见。随着人工智能继续渗透到人类生活的各个方面,由于偏见决策造成伤害的可能性显着增加,这更加需要有效的方法来检测和减轻这些偏见。
另一个担忧是人工智能在传播错误信息方面的作用。随着复杂的人工智能工具变得越来越容易使用,这些工​​具被用来生成欺骗性内容的风险也越来越大,这些内容可能会误导公众舆论或宣扬虚假叙述。其后果可能是深远的,包括对民主、公共卫生和社会凝聚力的威胁。这凸显出需要制定强有力的对策来减少人工智能错误信息的传播,并需要持续进行研究以领先于不断变化的威胁。
每一次创新都会不可避免地带来一系列挑战。纳赫曼提出人工智能系统的设计应在高水平上“与人类价值观保持一致”,并提出一种基于风险的人工智能开发方法,考虑信任、责任、透明度和可解释性。现在解决人工智能问题将有助于确保未来系统的安全。
原文链接:https://www.zdnet.com/article/openai-assembles-team-of-experts-to-fight-catastrophic-ai-risks-including-nuclear-war/

版权声明: woniu 发表于 2024-02-01 12:08:34。
转载请注明: 人工智能安全和偏见:理清人工智能训练的复杂链 | 跨境湾

相关文章