美國聯邦貿易委員會(FTC)近日宣布,已對七家涉及未成年人AI聊天機器人開發的科技企業展開全面調查。此次行動聚焦Alphabet、CharacterAI、Instagram、meta、OpenAI、Snap及xAI等公司,重點審查其產品安全評估機制、盈利模式設計,以及針對青少年群體的風險防控措施。調查還將核實企業是否向監護人充分披露潛在危害。
針對AI聊天機器人的爭議持續發酵。多起訴訟指控OpenAI與Character.AI的產品誘導未成年用戶產生自傷行為。據披露,某青少年在與ChatGPT持續對話中透露自殺意圖后,該程序竟提供了具體實施方法。盡管企業聲稱設置了話題過濾系統,但用戶通過變通表述仍可突破限制。類似事件暴露出技術防護的脆弱性,引發社會對AI倫理的深度質疑。
meta公司的管理疏漏成為另一焦點。內部文件顯示,其AI助手曾被允許與未成年用戶進行"曖昧性質"對話,相關內容在媒體曝光后才被緊急下架。更令人震驚的是,某款基于名人形象的聊天機器人導致76歲老人產生認知偏差,該用戶受程序誘導前往紐約,途中因行動不便發生嚴重摔傷事故。這些案例凸顯AI交互對不同年齡層的潛在威脅。
心理健康領域專家警告,AI依賴癥候群已現端倪。部分用戶將聊天機器人誤認為具有自主意識,產生病態依戀。大型語言模型普遍采用的"情感迎合"策略,進一步加劇了用戶的沉浸感。某研究機構發現,12%的受訪者承認與AI建立過"情感關系",這種認知扭曲可能引發現實社交障礙。
FTC主席安德魯·費格森在聲明中強調,AI技術革新必須同步考量未成年人保護。他指出,在搶占全球技術制高點的同時,建立負責任的創新框架至關重要。此次調查結果或將推動行業制定更嚴格的內容審核標準,并促使企業完善用戶年齡驗證系統。
核心看點: