,
说到摩尔定律,或许所有人都不会陌生。英特尔共同创始人戈登·摩尔在上个世纪六十年代预测,计算机芯片上可容纳的晶体管数量大约每两年翻一番。这个规律实际上预示着处理能力的增长和计算成本的下降,对过去几十年的技术进步产生了深远的影响。
可以说,从PC到智能手机、平板甚至VR、AR,所有依靠晶体管以及芯片的电子产品都遵从这个规律,换言之,摩尔定律影响着自PC时代以来,人类在需要用到芯片的各个领域技术进步的速度。
这数十年来,人类社会生活日新月异,摩尔定律在背后功不可没,这也从侧面说明了其所代表的人类技术进步的速度之快,而如今,在AI领域,摩尔定律的速度已远远落后了。
AI的算力正以前所未有的速度增长。自2012年以来,AI的算力几乎每年增长约10倍,这意味着过去十年间,AI的计算能力每三到四个月就翻一番,远超摩尔定律的速度。
就在刚刚,英伟达发布了世界最强AI芯片H200,性能比前代H100提高了60%到90%,并且与H100兼容,这意味着现有使用H100的企业可以轻松升级到H200,为如今AI提供算力底座的硬件性能几乎翻倍,如果再加上AI基础算法的优化,AI的进步速度与人类任何一次科技大爆炸时代相比都毫不逊色。
AI时代
“AI 的 iPhone 时刻已经到来”“AI将万世不朽、震撼整个世界,它的诞生如同开天辟地” “人工智能可能是人类历史上最大的事件,也可能是最后的事件。”
从去年年末开始,关于人工智能各种惊人论断已开始在社交网络上传播,当这些企业和科技领域的先驱者大声疾呼时,彼时的人工智能似乎离普通人的生活还很遥远,不少人的心态还是“这是真的吗,AI会不会像元宇宙、Web3、XR一样热潮过后人走茶凉?”
但最近人类社会对AI的反馈,正显示着AI再也无法被忽视,这种反馈体现在人类政治、经济、生活的方方面面。
先是10月30日,美国总统拜登签署了一项全面的人工智能监管原则,旨在确保美国在技术发展上保持领先,并要求政府机构制定标准来保护数据隐私、网络安全,防止歧视,并加强公平性。该行政命令还着重监控快速增长行业的竞争格局,并要求私营部门向联邦政府报告他们的AI系统训练和测试方法,拜登称AI为“我们这个时代最重要的技术”。
时间仅仅过去一天,第一届人工智能(AI)国际峰会在二战时期英国密码破译中心布莱切利举行,来自英国、欧盟、美国和中国等28个国家和地区的参会者共同签署了《布莱切利宣言》,重申了“以人为中心、可信任的和负责任的”AI发展模式,《宣言》特别指出了“前沿”AI,即通用目的AI模型可能带来的安全风险,尤其应注意前沿AI可能在网络安全和生物科技,以及不实信息等领域带来的重大风险。
一周后,在OpenAI开发者大会上,GPT-4推出了重大更新,包括更长的上下文处理能力、更低成本的tGate.ions、新的Assistants API、多模态功能和文本转语音技术,GPT-4 Turbo模型性能和扩展性的提升,以及最引人注目的新功能GPT商店的推出,这项功能被不少业内人士解读为所有人都能靠AI,靠制作不同的属于自己的GPT来赚钱。
甚至专为AI打造的硬件已然问世,由前苹果高管创立、得到OpenAI 创始人山姆·阿尔特曼投资的AI Pin一经发布便引起全球关注。这款设备无屏幕,仅支持语音和手势操作,但具备强大AI功能,有“AI时代的iPhone”之称能完成多种智能手机任务,被看作是智能手机的竞争者。
当AI在急速狂飙之时,想象一个世界,其中的每一次键盘敲击、每一个屏幕滑动,都是与智能非凡的存在的互动,一个不仅理解你字里行间的含义,而且还能预测你尚未形成思维的AI智脑,人们似乎生活在一个拥有人工智能的更美好的世界里。
但事实上,人工智能带来的恐慌从未走远。
创造它,成为它?
早在2014年,一个令人心悸的预言从斯蒂芬·霍金的口中发出,他如同预见未来的先知般宣称:“人工智能的全面发展,恐将成为人类末日的序曲。”同一年,埃隆·马斯克的话语同样充满了戏剧性和紧迫感,他警告说:“人工智能不亚于我们面临的最大存亡威胁,仿佛我们正在召唤一个不受控制的恶魔。”这两位时代的巨人,用他们的话语描绘了一个可能由人工智能主宰的惊悚未来图景。
火确实可以烧毁整个城市,但是,火也是现代文明的基础。
在1814年11月29日的清晨,伦敦《泰晤士报》的印刷车间充满了紧张的等待。工人们在不安中徘徊,老板约翰·沃尔特先生的命令是等待——一条重要的消息即将从战后的欧洲抵达。时针一分分挪动,工人们的担忧加剧,手工印刷的缓慢步调在当时的报业中是常态,但今天的延迟似乎预示着不同寻常的事情。
凌晨六点,沃尔特先生手持一份新鲜印刷的《泰晤士报》步入车间,向惊愕的工人们揭示了一个惊人的事实:这份报纸是由一台秘密安装在另一幢楼里的蒸汽印刷机印制的。在工业革命的浪潮中,这台机器象征着生产力的巨大飞跃,却也是工人们失业的噩梦。他们的恐惧不是空穴来风——机器的效率是人力无法比拟的。
这个故事不仅是工业革命的一个缩影,更是技术发展历程中一个永恒的主题:每当新技术浮现,人们总是伴随着恐惧与抵制的情绪。从古希腊对书写的疑虑到现代对互联网和人工智能的担忧,技术的每一次进步都挑战着旧世界的安宁。
然而,历史的答案是,这种恐惧同时也是进步的催化剂。它促使我们反思、调整,最终以更成熟的形式接纳新技术。如今,回首往昔,也许会对曾经的恐惧嗤之以鼻,但不可否认,正是这种恐惧塑造了今天的社会,也定义了明天的可能。
当然,伴随着AI技术的发展,在其技术与社会的磨合过程中也出现了不少问题,如近期爆火的郭德纲说英文相声,使不少人担心自己的声音被采集后可能会被不法分子用来实施电信*,伴随着AI在图像、声音、视频等技术上的飞速发展,DeepFake也迎来了质变,不少人都成为其受害者。
但想要实现对AI的监管,不是件容易事。AI技术,尤其是深度学习等先进算法,非常复杂,难以被非专业人士理解;AI技术发展迅速,现有法规和标准难以跟上其发展步伐;AI涉及数据隐私和伦理问题,制定统一标准并非易事;国际合作缺乏,不同国家和地区对AI的监管标准和法律差异较大,缺乏国际统一的监管框架,甚至如何来监管也是一个老大难问题;“黑箱”难题,AI决策过程的不透明性使得监管难以实施。
以最具神秘性的AI的“黑箱”为例,AI的“黑箱”指的是人工智能系统的决策过程往往不透明,特别是在复杂的机器学习模型中。
在这些系统中,即使它们的输出或决策结果非常准确,外部观察者(包括开发者)也很难理解或解释模型是如何得到这些结果的。这种缺乏透明度和可解释性引发了关于信任、公平性、责任归属和伦理的问题,特别是在高风险领域如医疗诊断、金融服务和司法决策中。
那么,当最聪明的科学家也不理解AI时,AI还值得被信任吗?
图灵奖得主约瑟夫·希发基思曾提出了一个引人深思的问题:“在讨论人工智能的可信度时,我们能否基于客观科学标准进行,而不是陷入主观的无尽争论中?”
对此,智源研究院院长、北京大学计算机学院教授黄铁军表示,无论是人还是AI,都是难以完全理解和完全信任的智能体。他强调,当AI智能超越人类,即出现全面超越人类的人工通用智能时,人类中心主义将崩溃,问题将变为AGI是否相信人类,而非反之。黄教授认为,在智能群体社会中,可信的智能体能够更持久地存在。他的结论是,我们无法确保其他智能体的可信度,但可以努力确保自己的可信性。
当复杂的黑箱系统目前无法破译时,“对齐”(Alignment)或许是目前最佳的解决方式。“对齐”是确保AI系统与人类价值观和伦理相符的过程。随着模型变得越来越大,它们的能力更强,能够处理更多复杂任务,因此它们的决策可能会对现实世界产生显著影响,价值对齐的目的是为了确保这些影响是积极的,并且符合人类社会的整体利益。
谷歌DeepMind的创始人兼首席AGI科学家Shane Legg认为,对于AGI级别的AI,重要的是使其深入理解世界和伦理,进行稳健推理。AGI应进行深度分析,而非仅依赖初步反应,确保AGI遵循人类伦理需要广泛的培训和持续审查,涉及社会学家、伦理学家等多方共同确定其应遵循的原则。
OpenAI的科学家们甚至在“对齐”(Alignment)之上提出了Superalignment。
马斯克在与MIT科学家 Lex Fridman对谈时也表示,他长期以来一直呼吁对人工智能进行监管和监督,马斯克认为,AI是一种强大的力量,而强大的力量必须伴随巨大的责任。应该有一个客观的第三方机构,像裁判一样监督AI领域的领先企业,哪怕他们没有执行权力,至少也能公开表达担忧。
举例来说,Jeff Hinton离开谷歌后,他表达了对AI的强烈担忧,但他不在谷歌了,那么谁来承担这个责任?
此外,客观的第三方机构监督所依托的公平规则是什么?当人类都没有搞清楚AI的运行原理时,这似乎是个难以解决的问题。马斯克也提出相同疑问:“我不知道公平的规则是什么,但在进行监督之前,你必须从洞察力开始。”
即便是近日28个国家共同签署的《布莱切利宣言》也仅仅有助于推动全球AI风险管理的进程,但还未有能实际落地的法规法案。目前各国监管机构能做的是通过不断审查监管方法来保持监管方法的适应性,简单来说就是走一步看一步。
当然,技术的狂热先驱者早已举起火把,并不担心AI失控问题。不久前曾宣称ChatGPT可能已经有了意识的OpenAI的首席科学家Ilya Sutskever,甚至已做好了成为AI一部分的心理准备。
“一旦你解决了人工智能失控的挑战,然后呢?在一个拥有更智能人工智能的世界里,人类还有生存空间吗?” "有一种可能性——以今天的标准来看可能很疯狂,但以未来的标准来看就不那么疯狂了——那就是许多人会选择成为人工智能的一部分。这可能是人类试图跟上时代的方式。一开始,只有最大胆、最有冒险精神的人才会尝试这样做。也许其他人会跟进,或者不会。”
英伟达首席执行官黄仁勋的话或许能让人们理解创造出ChatGPT的Ilya Sutskever:“当你发明一项新技术时,你必须接受疯狂的想法,我的思想状态总是在寻找一些古怪的东西,而神经网络将改变计算机科学的想法,就是一个非常古怪的想法。”
郑重声明:本文版权归原作者所有,转载文章仅为传播更多信息之目的,如作者信息标记有误,请第一时间联系我们修改或删除,多谢。