人工智能内容对您的网站有帮助还是有害?

跨境快讯 2024-02-01 15:06:25 woniu
2
导读:新的人工智能内容工具不断涌现。这些工具可以帮助您撰写社交帖子或整个博客文章,回答任何问题,甚至创建全新的形象!当您只有一点时间或需要更多灵感时,这非常有用。但最大的问题是,人工智能工具真的能帮助我们吗?我们应该使用它们来创建我们的内容吗?这篇博文将讨论人工智能内容以及为什么我们应该注意如何使用它。

人工智能生成的内容正在飞速增长
AI,即人工智能,是指执行通常需要人类智能的任务的系统,例如感知、学习、推理、解决问题和决策。现在,各种形状和大小的人工智能工具呈爆炸式增长。

人工智能驱动的内容生成器的广泛采用使得大规模快速生成内容变得比以往任何时候都容易。只需点击几下,任何人都可以生成一篇半心半意的通用文章,人们必须对其进行编辑以适应其业务基调并使其真实。

使用这些新的、闪亮的工具很容易沉浸在所有的兴奋中并生成大量内容。然而,在使用这些人工智能时,有一些事情我们不能也不应该忽视。使用人工智能工具创建内容会产生与其他工具类似的内容,您可能不会感到惊讶。其一,这对您的搜索引擎优化 (SEO) 不利。

它还导致了一个影响我们所有人的更大问题。这些内容通常根本不具有多样性和包容性。它是由接受过有偏见内容训练的人工智能创建的。而且这些内容往往是同一类型的人写的。让我们深入研究一下,看看可以做什么!

使用人工智能工具将创建一个回声室
人工智能生成内容的主要问题之一是缺乏原创性和真实性。虽然算法可以模仿现有内容的风格和基调,但它们无法取代真人的创造力和原创性。

人工智能生成的内容通常缺乏细微差别、深度和原创性,这可能会损害品牌的可信度和声誉。此外,使用人工智能生成的内容可能会延续刻板印象、偏见和排他性做法,因为算法往往会复制现有的模式和偏好。

由于人工智能内容工具使创建内容变得如此容易,因此现在比以往任何时候都更容易制作与其他人相同的内容。如果每个人都使用相同的人工智能来创建内容,那么就没有人在创建新内容。实际上,我们将创造一个没有新思想或想法进来的回声室。这会导致对世界的狭隘和不包容的看法。

François Chollet在推文中表达了他对人工智能内容的看法:

人工智能就像会议中的那个人,只是重复别人刚刚说过的话,让自己听起来很聪明

— 弗朗索瓦·乔莱 (@fchollet) 2023 年 2 月 12 日

与此相关的是,Futurism 的 Maggie Harrison 写了一篇有趣的文章,介绍ChatGPT 本质上是一个自动男式说教机器。仅持有这种远非包容性的世界观会在很多方面对社会造成伤害。它没有考虑到我们世界上的人和观点的巨大多样性。它也不支持过去经常被忽视和边缘化的人群。

AI训练集存在偏差
为 Google Bard、微软 Bing 助手和 OpenAI 的 ChatGPT 等提供支持的大型语言模型 (LLM) 都是根据当今互联网的内容进行训练的。尽管大多数人愿意相信互联网是多元化和包容性的,但它也有一些非常值得怀疑的地方。

我们应该努力建设一个比今天更具包容性的世界。使用互联网上的公共论坛来训练你的人工智能可能不是最好的主意。近年来,这导致人工智能变得种族主义和偏见。

几个例子
使用当今的互联网来训练人工智能存在多个包容性问题。这意味着人工智能本身会变得种族主义、性别歧视或体能歧视,因为他们接受的训练内容是种族主义、性别歧视或体能歧视。让我们看几个例子。

亚马逊人工智能招聘失败
以亚马逊的招聘人工智能为例。他们开发了这个工具作为招聘的“圣杯”,以帮助他们找到适合该工作的人。亚马逊使用了十年来大部分男性的简历来训练人工智能。当然,这是整个科技行业的反映,但这也意味着该工具变得性别歧视。

他们可能无意创建一个具有性别歧视的人工智能,但由于输入的数据偏向于更多男性员工,它认为自己正在做正确的事情。如果人工智能用于训练的数据存在偏差,那么人工智能将始终存在偏差。

图像创建也可能有问题
人工智能走向种族主义的另一个例子是人工智能图像创作。如果您想生成一对浪漫情侣牵手的图像,那么所有生成器主要返回白人的情况并不罕见。2021 年 7 月,Dall-E 2 更新了其工具,以“更准确地反映世界人口的多样性”。不幸的是,它仍然产生非多样化的照片。当您在提示中添加“贫穷”一词时,它只会显示有色人种。

这不仅限于有色人种;LGBTQI+ 群体也成为这些非包容性图像的牺牲品。当然,这些工具可以对其系统进行调整。要反映我们所处的世界,我们还有很长的路要走。正如 Zoe Larkin (Levity) 在关于人工智能偏见的博客文章中所写:“不幸的是,人工智能并不能免受人类偏见倾向的影响。它可以帮助人类做出更公正的决定,但前提是我们努力确保人工智能系统的公平性。”

不要忘记人工编辑
从某种程度上来说,使用AI工具作为捷径是可以接受的。然而如今,内容创作者在使用它们时并没有考虑为人工智能提供数据的数据。这导致回声室的强化和扩大,并有助于创建类似的内容以及产生种族主义和非包容性/多样化的图像。

因此,内容创作者需要更加了解人工智能工具使用的数据和算法,以确保其内容真实、多样化和包容性,并且不会延续刻板印象或排他性做法。

网上很多内容不具有代表性
亚马逊的招聘工具和 Dall-E 2 是人工智能内容生成器失控的几个例子。人工智能内容工具也走同样的道路并不奇怪,因为互联网上充斥着由说英语的平庸白人顺性别男性撰写的内容。

例如,牛津大学互联网研究所的一项研究发现,世界西部地区的编辑(主要是男性)对维基百科做出了大部分贡献,造成了一种扭曲的世界观。

即使这是您的目标受众的一部分,它也不是唯一的受众。目前,来自不同背景、拥有各种经历的人只占所听到的声音的一小部分。

如果我们想打破这种不断重复相同内容的循环,我们需要改进写作和创造更具包容性的内容。这样,我们就可以在更具包容性和多样化的互联网上训练未来的人工智能。

让今天的内容更好地适应未来
尽量不要成为会议中重复别人说过的话的人。用您的声音制作内容,并让最广泛的受众可以访问。所有这些都为每个人提供了更好的互联网。

与您想要接触的受众进行适当的沟通。我的朋友,当您进行包容性写作时,您正在帮助创建将使未来的互联网变得更加美好的内容。

意识到自己的偏见
不仅人工智能有这种偏见,人工智能也有这种偏见。我们都有一种无意识的偏见,我们正在努力消除并发展这种偏见。这就是我们来到这里的首要原因。我们都需要做得更好,写出更具包容性的内容。只有花时间编写包容性内容,我们才能塑造当今的互联网。反过来,这意味着我们可以用更具包容性和更少贬义的语言来训练未来的人工智能工具。

我们知道,这是一项重大责任。这不是一朝一夕就能改变的事情;需要花时间。毫无疑问,我们会弄错。但是,通过现在努力创建多样化和包容性的内容,我们将开始迈向更好的互联网。

所以,我们能做些什么?
您可以使用人工智能工具作为内容创建过程的一部分。但是,您必须在发布之前进行人工编辑。对人工智能工具推出的内容持批评态度。确保进行事实核查。并进行急需的调整。您不仅应该调整内容中的语气,还应该检查内容的多样性和包容性。您应该查明任何有问题的内容。将其改进到任何人都可以理解并且您对此感到满意的程度。

如何让你的内容更具包容性
可能很难知道从哪里开始。这就是工具可以帮助您走上更具包容性和多样化互联网之路的地方。例如,我们在 Yoast SEO 中的包容性语言分析。这项新的分析可以帮助您发现您何时可能无意识地使用了不具有包容性的术语,或者实际上是种族主义、性别歧视或体能歧视的术语。

就像我们的可读性分析一样,它会在您的文本中从我们的数据库中查找种族主义、性别歧视、非包容性或贬义性的词语。它将帮助您了解那些非包容性单词和短语。您将获得反馈和适当的替代方案,可以改进您的内容,以确保网站访问者感到与您交谈。只要朝着正确的方向迈出一小步,我们就有希望为子孙后代打造一个更加包容和多样化的世界和网络。对于未来的人工智能。
原文链接:https://yoast.com/ai-content/

版权声明: woniu 发表于 2024-02-01 15:06:25。
转载请注明: 人工智能内容对您的网站有帮助还是有害? | 跨境湾

相关文章