每分钟通话录音0.5美元:人类正将生活“售予”AI,隐私与未来的博弈
AI陷入数据饥荒,人类的日常生活竟成了一门生意。
从南非开普敦到美国芝加哥、洛杉矶,再到印度兰契,全球成千上万的人正把自己的日常片段卖给科技公司,内容涵盖洗碗视频、走路脚步、通话录音、做饭动作等。
这些再普通不过的日常琐事,正变成可明码标价、拆分零售的“工业原料”,成为训练AI的“教材”——两小时洗碗视频能换80美元,一分钟通话录音价值0.5美元。

硅谷对真人数据的渴求,催生出一个蓬勃发展的数据市场产业。
但钱并非白拿。
那些签下合同的零工训练师,往往在不知不觉中交出了不可撤销的授权:他们的声音可能被永久用于AI客服,面孔可能出现在半个地球外的人脸识别数据库,亲手训练的系统或许某天会让自己失业。
这是一个关于生存与算计的故事。一边是现实的生计压力,一边是看不见的未来风险。在这场数据“淘金热”里,谁才是真正的赢家?
01 人类将生活拆分“零售”
27岁的南非青年雅各布斯·洛乌每天出门喂海鸥时,都会拍下自己的脚步和沿途风景,上传到Kled AI——一个花钱收集用户数据以训练AI模型的应用。一段十几秒的“城市导航”视频,能换14美元。
22岁的印度学生萨希尔·蒂加赚钱方式更简单:让手机麦克风一直开着。他通过Silencio应用允许对方访问麦克风,捕捉餐厅嘈杂、路口车流声。为多赚钱,他甚至专门去酒店大堂录制未被采集过的环境音,一个月能赚100多美元,足够覆盖月开销。
18岁的芝加哥焊接学徒拉梅利奥·希尔选择出售更私密的内容,包括与朋友家人的通话记录,卖给Neon Mobile平台,每分钟价值0.5美元。

AI零工训练员上传的内容五花八门,他们站在这场全球数据淘金热的最前沿。
这些零工的工作远不止于此。
在洛杉矶,从圣莫尼卡到洛斯费利兹,数百人做家务时会把摄像头绑在头上和手上。煮咖啡、刷马桶、浇花、洗碗,一切都被记录下来。
萨尔瓦多·阿尔西加从Instawork领到头戴式手机支架,回家对着镜头洗碗、擦灶台,同时用西班牙语或英语解说动作。两小时录像,他赚了80美元。
“反正我也得做家务,”他说,“现在做家务还能赚钱。”
02 一切源于AI的数据饥荒
这些看似无技术含量的生活碎片之所以值钱,是因为AI快“饿死”了。
像ChatGPT和Gemini这样的大语言模型,需要海量学习材料才能持续进步。但目前,C4、RefinedWeb等常用训练数据来源已开始限制AI公司使用其数据。
非营利研究机构Epoch AI预测,到2026年,AI公司将耗尽可用于训练的新鲜文本资源。尽管一些实验室尝试让AI生成数据“自学”,但这种做法可能导致模型质量下降,最终走向崩溃。
在此背景下,Kled AI、Silencio等数据市场平台突然走红。
伦敦国王学院经济学教授鲍克·克莱因·提塞林克指出,零工AI训练是新兴工作类别,规模将大幅增长。AI公司通过付费获取用户授权数据,能有效规避版权纠纷风险——若仅从网上随意抓取内容,随时可能面临官司。
AI研究员韦尼亚明·维塞洛夫斯基也表示:“目前来看,人类数据仍是让AI跳出套路、学习新内容的最佳来源。”
简单来说:机器学得再快,终究离不开真实人类数据。这一点在物理世界表现得尤为明显。
Universal Robots的AI机器人产品副总裁安德斯·贝克指出,AI实验室收集的训练数据大多不适合真实场景部署,且仅靠视觉反馈,机器人无法学会“动手”任务。要让机器人掌握开门、洗碗、叠衣服等技能,必须依靠真实人类在现实环境中反复演示。
CB Insights洞察主管杰森·萨尔茨曼总结道:“模型目前无法自主判断对错、厘清真实情况,这些都得靠人类教导。”
正因如此,一些国家已建起专门的“手臂农场”——在固定设施中,大量人员录制开门、叠衣服等任务的第一人称视频,为AI提供真实操作示范。

阿尔西加录制了自己往洗衣机放衣服的过程,这是他零工任务的一部分。
数据显示,像Sunain这样的人类数据采集公司,在洛杉矶有超过1400名贡献者,分布从西部卡尔弗城到东部帕萨迪纳。Sunain联合创始人沙赫巴兹·马格西称,洛杉矶的住宅类型、生活方式和人群多样性“无与伦比”。
CB Insights预测,到2030年,全球数据收集和标注市场规模或达170亿美元。高盛则预测,到2035年,人形机器人市场规模或达380亿美元。
正是看到这些前景,资本开始疯狂涌入。
旧金山公司Encord去年物理AI业务收入增长十倍,今年2月获6000万美元融资。Meta支持的Scale AI已收集10万小时机器人视频。其竞争对手Micro1在60个国家雇了1000人,专门录制家务视频。
03 没有隐私,也无后悔药
对参与AI数据喂养项目的人而言,钱并非白拿。
希尔对这段经历心情复杂。他在Neon Mobile卖了11小时通话,赚了300美元,但应用常掉线,提现也难即时到账。“Neon一直让我觉得可疑,”他说,“但我一直用它赚点轻松外快。”
很快,麻烦来了。
2025年9月,Neon Mobile推出仅几周,TechCrunch就曝出安全漏洞:任何人可在网上直接访问用户电话号码、通话录音和文字记录。希尔称,Neon从未通知过他,现在他担心自己的声音会被如何使用。
这还不是最糟的。
纽约演员亚当·科伊2024年把肖像卖给AI视频编辑器Captions(现名Mirage),价格1000美元。他在合同中加了诸多保护条款:不能用其形象涉及政治,不能推销酒、烟草或色情内容,授权一年后失效。
可没多久,朋友开始转发网上疯传的视频给他。画面里,他的脸、声音正推销一种未经证实的孕妇保健品。
“跟别人解释这件事让我特别尴尬,”科伊说,“那些评论读起来很奇怪,因为他们评论的是我的外表,但那根本不是真正的我。”
更让科伊难受的是,当时他卖肖像的想法——反正大部分模型会从网上抓取数据和肖像,不如自己赚钱。现在回头看,这像个笑话。此后,他再也没碰过这类平台。
伦敦大学城市圣乔治分校法学教授恩里科·博纳迪奥指出,很多平台的协议条款几乎允许“永久性地对这些材料做任何事,且无需再付费”。而贡献者“几乎没有切实可行的方式撤回同意或重新谈判”。
更可怕的是,即便平台声称会做“去标识化”处理,声音、面容等生物特征本质上很难真正匿名。
04 全权许可的合同陷阱
你或许以为只是“租”出几段录音,但合同小字里可能藏着更大的坑。
用户在Neon Mobile或Kled AI分享数据时,授予的是“全权许可”——全球范围、排他性、不可撤销、可转让、免版税。也就是说,平台可永久销售、使用、公开展示、存储肖像,甚至创作“衍生作品”。
Kled AI创始人阿维·帕特尔辩解说,协议仅允许用于AI训练和研究。公司会审查买家,避开“意图有问题”的行业和可能滥用数据的机构。他称:“整个业务依赖用户信任。”
但这样的保障有多可靠?博纳迪奥教授指出,合同允许平台和客户“做几乎任何事情”。
更麻烦的是,数据卖出后,你根本不知其流向。斯坦福大学以人为本AI研究所的数据隐私研究员詹妮弗·金说,这些平台未明确说明数据的用途和使用地点。消费者“面临数据被以不喜欢、不理解或未预料的方式重新利用的风险,且几乎没有追索权”。
学者劳拉·基特尔的经历更典型。她在找非营利组织和政府机构的工作时,朋友推荐了Mercor。合同发来后,她仔细查看,条款要求授予免版税权利,允许使用她现有和未来的学术论文,以及任何可能对未指明客户有利的知识产权。
“我觉得这太过分了,”她说。
她想修改合同,结果一个叫“梅尔文”的AI助手回复邮件:改不了,不接受可以离开。
Mercor后来解释,合同仅适用于贡献者在项目过程中选择使用的自己的创作,未使用的不受约束。但对基特尔而言,那种不好的感觉已无法释怀。
05 谁是真正的赢家?
牛津大学互联网地理学教授马克·格雷厄姆是《喂养机器》一书的作者。他承认,对发展中国家的人来说,这笔钱短期内确实有用,但他警告:“从结构上看,这种工作不稳定、无发展前景,实际是条死胡同。”
他称,AI市场依赖“工资的逐底竞争”和“对人类数据的暂时性需求”。
一旦需求改变,“工人们得不到任何保护,学不到可转移技能,也没有安全保障”。最终的赢家,是那些“捕获所有持久价值的北半球平台”。
换句话说,零工们今天赚的每一分钱,都在帮助AI变得更强、更聪明。而当AI足够强大时,这些训练它的人,可能恰恰是最早被替代的一批。
正如DoorDash Tasks总经理伊桑·比蒂所说:“这些是我们十多年来一直在解决的现实世界问题,我们意识到,曾帮助我们的能力也可以帮助其他企业。”
DoorDash们正在做的,是把配送员的劳动经验转化为数据资产,卖给任何需要训练AI的企业。
优步也在做同样的事。
去年10月,优步在司机应用中增加数字任务类别,让司机上传餐厅菜单、录制多语言音频样本。其Uber AI Solutions部门已扩展到30个国家,提供标注、翻译和模型训练服务。
两家公司走的都是Scale AI开创的路子:用分布式远程工作者创建新数据集、验证AI输出。只不过,优步和DoorDash手里多了几百万个可直接派往现实世界任何角落的人。
阿尔西加的朋友曾质问他:“好吧,你就是问题所在。”朋友的意思是,他正在教AI做只有人类才能做的事,不是在帮倒忙吗?
阿尔西加回答:新技术总会带来恐惧和变革,但也创造了新工作类型,比如他最新的这份零工。“人们仍然需要人,”他说。
问题是,当AI连“人”都不需要时,这份需要还会存在吗?
本文来自微信公众号“腾讯科技”,作者:值得关注的,36氪经授权发布。
本文仅代表作者观点,版权归原创者所有,如需转载请在文中注明来源及作者名字。
免责声明:本文系转载编辑文章,仅作分享之用。如分享内容、图片侵犯到您的版权或非授权发布,请及时与我们联系进行审核处理或删除,您可以发送材料至邮箱:service@tojoy.com




