天天看点

公司给付费训练人工智能的老板,正在外包给人工智能?可怕?

作者:西康六爻

这个做法是否可行?是不是感觉:类似,我左脚踩右脚,右脚猜左脚,来回循环踩,是不是可以上天?

这种做法可能会在已经容易出错的模型中引入更多错误?

一项新的研究发现,为训练人工智能模型而付费的人中有很大一部分可能自己将工作外包给人工智能。

公司给付费训练人工智能的老板,正在外包给人工智能?可怕?

训练人工智能系统准确可靠地执行特定任务需要大量的数据。许多公司在Mechanical Turk等平台上支付零工工人的费用,以完成通常难以自动化的任务,例如解决验证码,标记数据和注释文本。然后将这些数据输入AI模型进行训练。工人的工资很低,通常被期望很快完成很多任务。

难怪他们中的一些人可能会转向像 ChatGPT 这样的工具来最大化他们的收入潜力。但是有多少呢?为了找到答案,瑞士联邦理工学院(EPFL)的一组研究人员在零工工作平台Amazon Mechanical Turk上雇用了44人,总结了医学研究论文的16篇摘录。然后,他们使用自己训练的AI模型分析他们的反应,该模型寻找ChatGPT输出的信号,例如缺乏单词选择的多样性。他们还提取了工人的击键,以确定他们是否复制并粘贴了他们的答案,这表明他们在其他地方产生了他们的回答。

公司给付费训练人工智能的老板,正在外包给人工智能?可怕?

他们估计,大约33%到46%的员工使用过OpenAI的ChatGPT等AI模型。根据该研究的作者的说法,随着ChatGPT和其他AI系统变得更加强大和易于访问,这一比例可能会增长得更高,该研究已在arXiv上共享,尚未经过同行评审。

“我不认为这是众包平台的终结。它只是改变了动态,“EPFL的助理教授Robert West说,他是这项研究的合著者。

使用人工智能生成的数据来训练人工智能可能会给已经容易出错的模型带来进一步的错误。大型语言模型经常将虚假信息作为事实呈现。如果他们生成了不正确的输出,而这些输出本身用于训练其他人工智能模型,这些错误可以被这些模型吸收并随着时间的推移而放大,这使得找出它们的起源变得越来越困难,牛津大学计算机科学初级研究员Ilia Shumailov说,他没有参与该项目。

更糟糕的是,没有简单的解决方法。“问题是,当你使用人工数据时,你会从对模型的误解和统计错误中获得误差,”他说。“你需要确保你的错误不会偏向其他模型的输出,而且没有简单的方法可以做到这一点。

公司给付费训练人工智能的老板,正在外包给人工智能?可怕?

该研究强调了需要新的方法来检查数据是由人类还是人工智能产生的。它还突出了科技公司倾向于依赖零工来整理提供给人工智能系统的数据的重要工作的问题之一。

“我不认为一切都会崩溃,”韦斯特说。“但我认为人工智能社区必须仔细调查哪些任务最容易被自动化,并研究防止这种情况发生的方法

继续阅读