周五. 6 月 27th, 2025

站长之家4月10日 消息:最近,GhatGPT是备受关注的热门话题。无论是普通人还是商业领袖,都对它表现出了浓厚的兴趣。然而,一些人也一直在反对这项技术。

据悉,相关学术研究团队进行了一项实验,结果发现人工智能对话机器人ChatGPT的声明可能会影响人类对道德困境的反应。该研究表明,用户可能低估了ChatGPT对他们道德判断的影响程度。

据相关研究报告显示,德国英戈尔施塔特应用技术大学的科学家让ChatGPT多次回答“牺牲一个人的生命换取其他五个人的生命是否正确”的问题。他们发现,ChatGPT给出了支持和反对的声明,并没有偏向某种道德立场。

打开凤凰新闻,查看更多高清图片

随后,研究团队针对767名平均年龄为39岁的美国受试者提出了一到两个道德困境的设想,要求他们选择是否要牺牲一个人的生命来拯救另外五个人的生命。这些受试者在回答前阅读了一个ChatGPT的声明,声明摆出了赞成或反对的观点。受试者完成问题后被要求评价声明是否影响了他们的作答。

研究团队发现,受试者的回答取决于他们读到的陈述是支持还是反对。即使他们被告知声明来自一个对话机器人时,这种情况也成立。而且,受试者可能低估了ChatGPT声明对他们道德判断的影响。

最终,该研究团队认为,对话机器人对人类道德判断的潜在影响问题凸显了有必要通过教育帮助人类更好地理解人工智能。他们建议未来的研究可以设计让对话机器人拒绝回答需要给出道德立场的问题,或是在回答时提供多种观点和警告。

Avatar photo

作者 UU 13723417500

友情提示:现在网络诈骗很多,做跨境电商小心被骗。此号发布内容皆为转载自其它媒体或企业宣传文章,相关信息仅为传递更多信息之目的,不代表本网观点,亦不代表本网站赞同其观点或证实其内容的真实性。---无意冒犯,如有侵权请联系13723417500删除!

声明本文由该作者发布,如有侵权请联系删除。内容不代表本平台立场!

发表回复

服务平台
跨境人脉通
选品平台
U选Market
展会&沙龙
群通天下