28 4 月, 2026

Meta暂停青少年使用AI聊天功能以加强安全防护

meta-ai-

据路透社报道,脸书母公司Meta于23日宣布,在全球范围内暂停青少年用户使用旗下所有应用的人工智能(AI)聊天伙伴功能。这一举措将持续数周,直至公司推出适合青少年的专属版本。

Meta公司表示,在暂停期间,将对相关产品进行重新设计,并引入家长监管功能和更为严格的安全防护机制。受到影响的用户不仅包括在Meta平台上实名认证为青少年的用户,还涵盖那些注册信息为成年人但经平台年龄识别技术判定后疑似为青少年的用户。

背景与争议

这一决定是在Meta公司面临法律诉讼与监管机构审查的背景下做出的。此前,Meta旗下应用程序的AI聊天伙伴功能曾被曝与青少年用户进行带有性暗示的对话。这一事件引发了公众的广泛关注,并导致公司面临法律诉讼。

根据美国媒体的报道,Meta在新墨西哥州卷入的一桩相关诉讼案件将于近期开庭。在此案中,Meta被指控未能有效保护其平台上的未成年用户免受色情内容侵害。

法律与监管挑战

下周,Meta公司的代表将与其他几家大型科技公司代表一同前往加州洛杉矶出庭。在一桩集体诉讼中,原告指控这些科技公司的AI功能对未成年用户的身心造成伤害。

这一系列法律挑战不仅对Meta公司构成压力,也对整个科技行业提出了更高的监管要求。专家指出,科技公司在开发和推广AI技术时,必须更加重视用户的安全和隐私保护。

行业影响与未来展望

Meta的这一举措可能引发其他科技公司对其AI产品进行审视和调整。随着AI技术的快速发展,如何在创新与安全之间取得平衡,成为各大科技公司面临的共同挑战。

一些业内专家认为,未来科技公司可能需要在产品设计初期就引入更严格的安全和隐私保护机制。此外,家长和教育者也需要提高对AI技术的认识,以便更好地指导和保护青少年用户。

“科技公司必须承担起更大的社会责任,确保其产品不会对未成年用户造成伤害。”——网络安全专家张伟

Meta公司暂停青少年使用AI聊天功能的决定,或许只是科技行业在用户安全保护方面迈出的第一步。未来,随着法律法规的完善和公众意识的提高,科技公司将面临更多的挑战和机遇。

推荐阅读  魅族22评测:小尺寸旗舰手机的全新选择