算法不“中立”,只服务既得利益方
“算法只是工具”的说法看似合理,实则掩盖了最根本的问题:算法服务于谁,便自然带有偏见。匿名数据也一样,并非“去掉身份”就等于“去除偏见”。
例如:
广告平台使用匿名点击数据优化投放模型,目的是让用户停留更久、消费更多;
银行使用匿名用户行为做信用评估,实际是为了规避可能的“坏账”风险;
政府使用匿名轨迹数据做“社会治理”,本质是实现更高效的社会控制。
这些系统并非中立执行,而是服务于各自利益目标。这意味着技术中立已成为伪命题,尤其在匿名数据利用中,算法常常强化而非消除社会不平等。
2. 匿名≠无害,预测即伤害
以“匿名轨迹”作为例子:
某人每天深夜频繁前往医院,系统便可能自动识别其为“高健康风险”人群;
某人每月出现在失业中心、低消费区,则可能被默默列入“信用审查黑名单”;
某女性用户常点夜宵、独居、搜索抑郁 線上商店 症关键词,则被广告平台分类为“高转化情绪弱势用户”;
这些预测本身未必错误,但当它被系统用于“选择性对待”甚至“经济歧视”时,匿名身份不但无法保护用户,反而成为“伤害合法化”的外衣。
法律滞后,监管空白
尽管诸如《个人信息保护法》《数据安全法》《欧盟GDPR》等逐渐出台,但大多聚焦于“显性数据”的采集与授权,对于**“伪匿名”“行为数据组合”“预测模型构建”等隐形过程**几乎没有系统规制。
现实困境包括:
很多平台声称“不采集姓名手机号”,但却大规模采集唯一行为轨迹;
数据出口往往打着“合规”旗号,但未真正审查“数据再识别”的可能;