,
定币龙头USDT发行商Tether即将上任的新执行长Paolo Ardoino,今(20)日在X上发文,表达出对中心化人工智能(例如ChatGPT的担忧。
他认为这类Ai江具可能会因为集中处理大量数据而存在风险,并提倡需要有一种无偏见、普遍训练的模型,结合本地化的微调或定制,使这种模型更分散,更能保护个人隐私。
"集中式人工智能是世界上最大的蜜罐(honeypot,这里指陷阱)。没有人会把他的抵押贷款合约放在FaceboGate.io上。然而,人们使用ChatGPT来得到房契、抵押、健康记录等摘要。无偏见的普遍训练模型加上本地同业的精细调整/定制迫在眉睫。然而,大型科技公司不会投资于此,因为他们无法获得私人数据。
用户隐私饱受政府、社会质疑
Paolo Ardoino的担忧并不是空穴来风,自今年AI聊天机器人ChatGPT为全球掀起人工智能热潮后,实际上其开发商OpenAI接连遭到[违规收集用户讯息]的质疑。
今年6月,据一份长达157页的起诉文件,一群匿名人士指出OpenAl一直在秘密地从网络抓取大量个人数据来训练其人工智能模型。诉讼书认为OpenAI从网络上窃取的单词数量高达3000亿个,它们来自[书籍、文章、网站、贴文一包括未经同意获得的个人讯息]。
在今年9月,知名律师事务所Morqan&Morqan代表两位未具名的软件工程师于旧金山联邦法院对OpenAl提告诉状中指控OpenAI与微软涉嫌使用网络抓取技术,即透过网络爬虫非法窃取大量私人资料,以用于训练飞速发展的ChatGPT和其他相关AI模型
”[如果没有这种史无前例,对属于真人的私人或受版权保护的资料盗窃,这些产品(ChatGPT、DALL-E和OpenAI的其他模型)今天就不会成为价值数 亿美元的生意。]”值得一提的是,在国家监管层面,意大利数据保护局早在今年4月就针对隐私的问题对OpenAl开出第一枪,随后德国、法国、爱尔兰的隐私监管机构也仿效意大利的做法,寻求关ChatGPT禁令的依据。
郑重声明:本文版权归原作者所有,转载文章仅为传播更多信息之目的,如作者信息标记有误,请第一时间联系我们修改或删除,多谢。