解决大型语言模型中责任的伦理困境

摘要 牛津大学的研究人员与国际专家合作,在NatureMachineIntelligence上发表了一项新研究,解决了围绕大型语言模型(LLM)生成的输出负责的复杂伦

牛津大学的研究人员与国际专家合作,在NatureMachineIntelligence上发表了一项新研究,解决了围绕大型语言模型(LLM)生成的输出负责的复杂伦理问题。

该研究表明,像ChatGPT这样的LLM提出了关于有用文本生成的信用和权利归属的关键问题,这与主要关注有害后果的传统AI责任辩论不同。

“诸如ChatGPT之类的LLM迫切需要更新我们的责任概念,”该研究的联合第一作者塞巴斯蒂安·波斯丹·曼恩(SebastianPorsdamMann)和布赖恩·D·厄普(BrianD.Earp)说。

根据合著者SvenNyholm和JohnDanaher的说法,该研究的一个重要发现是,“虽然这些技术的人类用户不能完全将LLM产生的积极结果归功于他们,但让他们对有害使用负责似乎仍然是合适的,例如生成错误信息,或粗心检查生成文本的准确性”。

这可能会导致Nyholm和Danaher在之前的工作的基础上称之为“成就差距”的情况:“正在做有用的工作,但人们无法像过去那样获得满意或认可。”

该论文的资深作者JulianSavulescu补充说:“我们需要关于作者身份、披露要求、教育用途和知识产权的指导方针,借鉴现有的规范性文书和类似的相关辩论,例如人类增强。”Savulescu继续说道,要求透明度的规范尤其重要,“以追踪责任并正确分配赞扬和责备。”

该研究由法律、生物伦理学、机器学习和相关领域的跨学科专家团队共同撰写,深入探讨了法学硕士在教育、学术出版、知识产权和错误产生等关键领域的潜在影响。和虚假信息。

教育和出版业尤其需要对LLM使用和责任指南采取快速行动。“我们建议提交的文章包括关于LLM使用的声明,以及相关的补充信息,”该州的合著者JohnMcMillan和DanielRodger。“LLM的披露应该类似于人类贡献者,承认重大贡献。”

该论文指出LLM可能对教育有帮助,但警告说它们容易出错,过度使用可能会影响批判性思维能力。作者写道,机构应考虑调整评估方式、重新思考教学法并更新学术不端行为指南,以有效处理LLM的使用。

共同作者莫妮卡·普洛扎(MonikaPlozza)指出,生成文本中的权利,例如知识产权和人权,构成了另一个需要快速解决LLM使用影响的领域。“知识产权和人权构成挑战,因为它们依赖于以人为本的劳动和创造力概念。我们需要开发或调整‘贡献’等框架来处理这种快速发展的技术,同时仍然保护创作者和用户的权利”

并非LLM的所有可预见用途都是良性的。“LLM可用于生成有害内容,包括大规模的错误和虚假信息,”共同作者JulianKoplin警告说。“这就是为什么我们需要让人们对他们使用的LLM生成文本的准确性负责,同时努力教育用户和改进内容审核政策以降低风险。”

共同作者NikolajMøller和PeterTreit说,为了解决这些和其他与LLM相关的风险,LLM开发人员可以效仿生物医学等领域的自我监管。“建立和赢得信任对于LLM的进一步发展至关重要。通过提高透明度和参与公开讨论,LLM开发人员可以证明他们对负责任和道德实践的承诺。”

郑重声明:本文版权归原作者所有,转载文章仅为传播更多信息之目的,如作者信息标记有误,请第一时候联系我们修改或删除,多谢。