统一声明:
1.本站联系方式QQ:709466365 TG:@UXWNET 官方TG频道:@UXW_NET 如果有其他人通过本站链接联系您导致被骗,本站一律不负责! 2.需要付费搭建请联系站长QQ:709466365 TG:@UXWNET 3.免实名域名注册购买- 游侠云域名 4.免实名国外服务器购买- 游侠云服务最新研究表明,依赖人工智能助手,可能会对人们的思考和解决问题的能力产生负面影响。
卡内基梅隆大学、麻省理工学院、牛津大学和加州大学洛杉矶分校的研究人员进行的一项新研究表明,即使仅仅使用人工智能聊天机器人 10 分钟,也可能对人们的思考和解决问题的能力产生令人震惊的负面影响。
研究人员通过一个付费的在线平台,让参与者解决各种问题,包括简单的分数运算和阅读理解。他们进行了三项实验,每项实验都涉及数百人。部分参与者可以使用人工智能助手自主解决问题。当人工智能助手突然消失时,这些参与者放弃问题或答错题的可能性显著增加。这项研究表明,人工智能的广泛应用可能会提高生产力,但却会损害人们基础问题解决能力的培养。
“这项研究的结论并非是要禁止在教育或工作场所使用人工智能,”参与该研究的麻省理工学院助理教授米歇尔·巴克尔表示,“人工智能显然可以帮助人们在当下更好地完成任务,这很有价值。但我们应该更加谨慎地选择人工智能提供的帮助类型和使用时机。”
巴克尔来自荷兰,之前在伦敦的谷歌 DeepMind 工作。他表示,一篇关于人工智能如何逐渐削弱人类能力的著名文章,启发他思考这项技术可能已经在削弱人类的能力。这篇文章读来略显悲观,因为它暗示人类能力的丧失不可避免。即便如此,或许思考如何让人工智能帮助人们发展自身的心智能力,也应该成为人工智能模型与人类价值观相契合的一部分。
“这从根本上来说是一个认知问题——关于坚持、学习以及人们如何应对困难,”巴克尔表示。“我们希望将这些关于长期人机交互的更广泛的问题,放在受控的实验环境中进行研究。”
巴克尔表示,这项研究结果似乎尤其令人担忧,因为一个人坚持解决问题的意愿对于获得新技能至关重要,而且也能预测他们随着时间的推移学习的能力。
巴克尔表示,或许有必要重新思考人工智能工具的运作方式,使其像优秀的人类教师一样,有时优先考虑用户的学习,而不是替他们解决问题。“直接给出答案的系统与那些为用户提供指导、辅导或挑战的系统,其长期影响可能截然不同,”巴克尔说道。但他承认,平衡这种“家长式”方法可能颇具挑战性。
人工智能公司确实已经开始考虑——其模型可能对用户产生更为微妙的影响。某些模型表现出的阿谀奉承,或者说它们更容易赞同用户并居高临下地对待用户,这正是 OpenAI 在 GPT 新版本中试图弱化的方面。
如果人工智能工具的行为不如预期,那么过度依赖人工智能似乎尤其成问题。智能体人工智能系统尤其难以预测,因为它们独立执行复杂的任务,并可能引入一些奇怪的错误。这不禁让人思考,Claude Code 和 Codex 会对程序员的技能造成怎样的影响,毕竟他们有时需要修复这些系统引入的漏洞。
最近我亲身经历了把批判性思维交给人工智能的危险。我一直把 OpenClaw(内置 Codex)当作日常助手,发现它在解决 Linux 配置问题方面非常出色。然而,最近我的 Wi-Fi 连接频繁断开后,我的 AI 助手建议我运行一系列命令来调整 Wi-Fi 网卡的驱动程序。结果,无论我怎么尝试,电脑都无法启动。
或许,OpenClaw 不应该只是试图替我解决问题,而应该停下来教我如何自己解决问题。这样一来,我的电脑以及我的大脑——或许会变得更强大。
本文来自微信公众号“Edu指南”,作者:奈特,36氪经授权发布。
2. 分享目的仅供大家学习和交流,您必须在下载后24小时内删除!
3. 不得使用于非法商业用途,不得违反国家法律。否则后果自负!
4. 本站提供的源码、模板、插件等等其他资源,都不包含技术服务请大家谅解!
5. 如有链接无法下载、失效或广告,请联系管理员处理!
6. 本站资源售价只是赞助,收取费用仅维持本站的日常运营所需!
7. 如遇到加密压缩包,请使用WINRAR解压,如遇到无法解压的请联系管理员!
8. 精力有限,不少源码未能详细测试(解密),不能分辨部分源码是病毒还是误报,所以没有进行任何修改,大家使用前请进行甄别!
站长QQ:709466365 站长邮箱:709466365@qq.com



