@
icestraw 有段时间没上 v 站 果然 v 站网友水平还是一样的差劲啊 各种混淆概念
1. 本地模型本地处理当然能保护隐私, 除非你能证明每次本地运行结果都会回传云端, 被抓住的话也能倒逼厂商以后不再敢回传, 所以本地模型保护隐私这个叙事本身就是一个 guardrail, 但是厂商如果根本不提本地模型和云端模型的隐私差异, 那对于用户数据当然可以为所欲为.
2. 训练模型所用的数据跟训练出来的模型当然是天然脱敏的, 当初收集数据时候有没有涉及隐私跟使用模型时候有没有数据隐私也是两回事, 过去的数据收集可能没有保护隐私能当论据来证明未来使用本地模型也没有保护隐私的意义? 那照你这意思那反正你数据都或多或少被收集过了, 那什么隐私保护就都没意义了.
3. 有没有收集数据和数据有没有脱敏又是两个问题, 你举的录音的例子就正好是脱敏也不能让人完全放心的一类数据, 类似的还有位置信息和自动驾驶的图像采集, 但是这跟上面说的隐私叙事本身就是 guardrail 是一个道理, 如果苹果没有隐私叙事, 会被倒逼加开关吗? 国产手机包括国产大模型有因为隐私问题被倒逼改变过吗?
4. 大模型训练使用的数据跟过去做用户画像推广告收集的数据也是两回事, 脱敏数据对于训练模型结果并没有什么影响.
5. 云端模型当然也未必不能保护隐私, 但是苹果承诺安全从业者公开检验云端架构以及集成的 chatgpt 不会保存用户数据, 这种承诺的意义不在于可以 100%保证遵守而是不遵守的话可以追责, 但是其他厂商似乎并没有做出这种承诺的吧.
6. 识别儿童色情的功能被取消又是一个隐私叙事 guardrail 起作用的例子, 你国产手机 AI 修图上传服务器识别到敏感图样直接返回无法操作说不定还要留档备查, 苹果这边 icloud 里传儿童色情都不许管, 不知道你以为提起这个以为能证明什么论点.
7. AI 道德对齐跟隐私有个屁关系...