2024年9月,Meta Platforms CEO马克·扎克伯格。图片来源:David Paul Morris—Bloomberg/Getty Images
人们喜欢与AI对话,有些人甚至过度沉迷这种交流方式。据Meta聘请的合同工观察,用户会向Meta的AI过度分享个人隐私信息,包括真实姓名、电话号码和电子邮箱地址。这些合同工的工作内容正是审核人机对话内容,以优化人工智能系统。
Business Insider网站采访了四名通过Alignerr和Scale AI旗下Outlier平台受雇于Meta的合同工。这两家平台招募人工审核员协助训练AI。这些合同工指出,与其他硅谷公司的同类项目相比,“Meta项目中出现未经删减的个人数据的频率更高”。据他们透露,许多用户会在Facebook和Instagram等Meta旗下的众多平台上分享高度私密的细节。用户会像与朋友甚至恋人聊天一样同Meta的AI对话,发送自拍照乃至“露骨照片”。
需要说明的是,人类与AI聊天机器人过度亲密的现象早有纪录,而Meta为提升交互质量聘请人工评估AI助手表现的做法亦非新鲜事。早在2019年,《卫报》就披露苹果(Apple)合同工经常接触Siri用户的极端敏感信息,尽管当时该公司“缺乏处理敏感录音的具体程序”。此外,彭博社曾报道过亚马逊(Amazon)全球数千名员工和合同工会手动审听Alexa用户录音片段并转录文字。Vice和Motherboard亦曾曝光微软(Microsoft)雇用的合同工录制和审听语音内容,这意味着合同工经常会通过意外激活Xbox游戏主机而听到孩子们所发出的声音。
但Meta的情况截然不同,尤其考虑到该公司在过去十年中依赖第三方合同工的做法及公司在数据治理方面的屡次失误。
2018年,《纽约时报》和《卫报》联合披露:由共和党对冲基金亿万富豪罗伯特·默瑟资助的政治咨询公司剑桥分析(Cambridge Analytica),在未经用户同意的情况下利用Facebook获取数千万用户的数据。该公司借此建立美国选民档案,通过个性化政治广告助力特朗普在2016年当选总统。数据泄露源于某性格测试应用,该程序不仅收集参与者数据,还窃取其好友信息。此事导致Facebook遭美国联邦贸易委员会(Federal Trade Commission,FTC)罚款50亿美元,创下美国隐私侵权案最高罚单记录。
剑桥分析的丑闻暴露出Facebook开发者平台存在更广泛的缺陷:开放海量数据接口却缺乏有效监管。根据举报人弗朗西丝·豪根在2021年公布的内部文件,Meta管理层常将业务增长和用户参与度置于隐私安全之上。
Meta在使用合同工方面亦受到了审查:2019年,彭博社报道Facebook付费让合同工转录用户音频聊天,而转录员完全不清楚这些录音的获取途径。(当时,Facebook表示录音仅来自选择启用转录服务的用户,并称已“暂停”该做法。)
Facebook多年来一直致力于重塑形象:2021年10月,该公司更名为Meta,宣称此举象征面向"元宇宙"的前瞻性战略转型,而非对虚假信息、隐私及平台安全等众多争议的回应。但该公司处理数据方面的黑历史始终挥之不去。尽管当前使用人工审核员优化大语言模型(LLMs)已是行业惯例,但Meta使用合同工的最新爆料以及他们所获取的信息,令这家全球最大社交网络的母公司的数据管理机制再度遭到质疑。
Meta发言人在给《财富》杂志的声明中表示,公司制定了“约束全体员工和合同工访问个人数据的严格政策”。
该发言人表示:“虽然我们与合同工合作提升训练数据质量,但会刻意限制其可获取的个人信息范围,并设置流程和安全防护措施指导其处理可能接触到的敏感数据。”
该发言人补充道:“对于那些专注于AI个性化的项目……合同工根据我们公开的隐私政策及AI条款,可在工作中访问特定个人信息。无论何种项目,任何未经授权的数据共享或滥用行为均违反公司政策,我们将采取相应处置措施。”(财富中文网)
译者:刘进龙
审校:汪皓