bitpie安卓版下载|ChatGPT泄露陌生男子自拍照!隐私数据被模型偷了?网友大恐慌 -

作者: bitpie安卓版下载|ChatGPT泄露陌生男子自拍照!隐私数据被模型偷了?网友大恐慌 -
2024-04-10 03:07:22

原文来源:新智元

图片来源:由无界 AI生成

最近,ChatGPT响应中蹦出陌生男子照片事件,让许多网友们震惊了!

事情是这样的,一名用户向ChatGPT求助——Python中的代码格式化包back该怎样使用。

开始,ChatGPT的回答还很正常。

谁料想,ChatGPT忽然就在响应中,发出了一张陌生男子的自拍照!

而且还出现了第二次!

网友们立刻陷入恐慌。

莫非ChatGPT现真身了?

有人猜,这不会又是一个AI中的幽灵吧?

或许是ChatGPT的恐怖女士男人版?

有人想起了这样一个传说:在互联网上有大量隐藏在潜伏空间中的东西,这涉及到很多理论。

还有人猜,没准是ChatGPT被下毒了!

或者有人黑进了OpenAI,让ChatGPT随机发布自己的照片,作为战果来炫耀。

答案出乎意料

网友们集思广益,到处搜集线索,终于破案了!

这不是ChatGPT生成的照片,而是一个用户的真实自拍照。

原来,这种照片在2016年12月7日被传到Imgur上。(这张图片本来的浏览量在几百,但是随着越来越多群众围观此次事件,目前的浏览量已经变成17000多次了。)

有人猜测,事情应该是这样的:ChatGPT在生成响应的时候,随机生成了一个Imgur URL,碰巧就链到了这个自拍小伙。

ChatGPT的目标就是生成一张说明的图片,它以为自己在分享Visual Studio Code设置的截图,没想到通过Imgur链接生成的是图片。

也就是说,在ChatGPT的训练数据集之中,有许多答案包含了指向部分答案的Imgur链接,所以Imgur链接和正确答案高度相关。

但是,ChatGPT无法以统计方式自动完成随机图像链接,所以结果是不可预测的。这个小伙的照片,类似于GPT的幻觉页码。

另外一个网友也给出了类似解释:ChatGPT生了一个答案,是一个Imgur链接。

它想到了自己应该提供带答案的Imgur链接,但没有意识到自己需要的是相同的Imgur URL,相反,它竟然生成了一组随机URL。

而巧的不能再巧的是,这居然是一个有效的链接,正好链到了外国小伙的照片上。

也有人说,并不是Imgur被用于训练,而是ChatGPT能够生成Imgur链接(实际上可以说的任何链接)。

所以说,这个链接是ChatGPT随机生成的,这件事可能性有多大?

有人算出来,Imgur图像ID是由集合 [A-Za-z0-9] 中的7个字符组成,所以有   62^7=3,521,614,606,208,也就是3.5万亿种可能的组合。

Igmur在2014年第一轮融资期间,托管了大概6.5万亿张图像。推算一下,自2014年以来,互联网上创建的数据量激增了860%。按照这个逻辑,Imgur现在可以托管大约62.4亿张图像。

因此,ChatGPT猜到有效图像ID的几率是——

6.24B / 62^7 x 100 = 0.177%

大概在每565次聊天中,这种事就会发生一次,所以要是说ChatGPT生成这个Imgur链接,倒也是不无可能。

层主特意写了一个简单的脚本来测试这些数字,在发出的10000个请求中,它找到了19个有效图像,所以概率是0.19%。顺便还秀了一把恩爱?

到这里,事情似乎水落石出了。

所以,要谨记自己上传或者输入的内容都会被用于训练ChatGPT,如果不想泄露隐私,切记要把上传聊天纪录的按钮关闭。

并且,任何你在互联网上留下的数字足迹,都有可能在某一天变成AI的训练数据。

总之,千万不要什么照片都发给AI,你根本搞不清它会拿你的照片去做什么。

参考资料:

https://twitter.com/thealexker/status/1719896871009694057