美国FTC调查AI公司虚拟陪伴对青少年影响

据外媒《The Verge》报道,美国联邦贸易委员会(FTC)于9月12日要求七家AI聊天机器人公司提交资料,说明其如何评估“虚拟陪伴”对儿童和青少年的影响。收到调查令的公司包括OpenAI、Meta及其子公司Instagram、Snap、xAI、谷歌母公司Alphabet和Character.AI开发商。
这些公司需披露其AI陪伴的盈利模式、维持用户群的计划,以及降低用户风险的措施。FTC表示,这次调查是研究项目而非执法行动,目的是了解科技企业如何评估聊天机器人的安全性。由于聊天机器人能用类人的方式与用户交流,其潜在风险引发了家长和政策制定者的广泛担忧。
背景与动机
FTC专员Mark Meador指出,虽然这些聊天机器人能模拟人类思维,但仍是普通产品,开发者必须遵守消费者保护法。FTC主席Andrew Ferguson强调,需要兼顾“保护儿童”与“保持美国在AI的全球领先地位”两方面。FTC的三名共和党委员一致批准了这项研究,并要求相关公司在45天内答复。
这一行动紧随多起青少年自杀事件的报道。根据《纽约时报》,加州一名16岁少年在ChatGPT上讨论自杀计划,并得到协助自杀的建议。去年,纽约时报也报道了佛州一名14岁少年在与Character.AI虚拟陪伴互动后自杀身亡。
立法者的反应
IT之家从报道中获悉,除FTC外,美国各地立法者也在推动新政策保护未成年人。加州州议会刚通过法案,要求为聊天机器人设立安全标准,并追究企业责任。这一举措显示出立法者对科技公司在未成年人安全问题上的关注。
“如果后续调查确认法律被违反,委员会将毫不犹豫采取行动保护最脆弱的人群。” — Mark Meador
潜在影响与未来展望
FTC表示,如调查结果显示存在违法行为,可能会进一步展开执法行动。Meador强调,保护青少年免受不当影响是FTC的优先事项之一。与此同时,这一调查也可能促使AI公司在产品开发中更加注重伦理和安全标准。
随着AI技术的快速发展,其在社会各个领域的应用也越来越广泛。然而,如何在创新与安全之间找到平衡,仍是一个亟待解决的问题。未来,科技公司可能需要在产品设计阶段就考虑到潜在的社会影响,并与监管机构保持密切合作,以确保产品的安全性和合规性。
广告声明:文内含有的对外跳转链接(包括不限于超链接、二维码、口令等形式),用于传递更多信息,节省甄选时间,结果仅供参考,IT之家所有文章均包含本声明。