——人类要想自保和延续,在这之前就应有个框架,然后和AGI赛跑
邵旭峰
一、AI时代完全开始,AI及其基础要素都呈指数级发展,且会继续提速:
2024年6月18日,芯片巨头英伟达市值超越微软成为全球第一,标志着信息技术之AI时代完全开始,之前信息革命经历了硬件和软件时代,标志分别是硬件巨头IBM的市值在1967年成为全球第一、之后一直霸榜到1986年,再就是微软和苹果市值成为全球最高——由于微软提前布局AI,比如投资OpenAI公司而压住苹果。
目前全球市值前十的公司,除过沙特阿美是能源公司,其他基本都是信息技术和AI公司(另还有一个投资公司),更多信息技术和AI公司正在不断挤掉全球市值前20、前50、前100、前500、前1000公司中之前的座次——也就是全球最多的财力、人力、人才、资源在往信息技术尤其AI领域集中,这一态势是远超之前第一次工业革命、第二次工业革命、以及信息技术之硬件和软件时代的,是完全空前的疯狂。
目前世界,OpenAI公司基于超强芯片和算力(计算平台)的ChatGPT(文字和语言生成模型,当下是GPT-4),还有sora(视频生成模型),以及谷歌公司的Bard、Meta公司的LLaMA,基本代表了AI的最高水平。OpenAI公司也在推进其雄心勃勃的7万亿美元融资计划,意图打造生成式人工智能帝国。
比尔·盖茨称,GPT-4在学习整合表达知识信息方面已经超过大多数人,而OpenAI公司将在2024年年底前发布比GPT-4强100倍的新一代模型——毋庸置疑的,AI及其基础要素(芯片、算力等),都完全开始指数级发展,且越往后会越提速。
二、完全碾压人类的具备决策和意识功能的通用人工智能(AGI)在几年内就会到来:
2024年3月1日,英伟达CEO黄仁勋在美国加州参加斯坦福经济政策研究所峰会时表示,他预计AGI(强人工智能)最快将在五年内面世,其将通过所有人类测试,也就是基本能做人能做的所有事情并很大程度超越。
OpenAI首席执行官山姆·奥特曼稍早前也表示,AGI可能会在“相当近的将来”开发出来。
特斯拉CEO埃隆·马斯克称,OpenAI在2023年发布的GPT-4已经是“AGI”。
2024年3月份,马斯克在X社交媒体上写道:“明年人工智能可能会比任何人类个体都聪明,到2029年,人工智能可能比所有人类加起来还要聪明。”
对于马斯克的话,我们可以稍作延展,比如OpenAI在年底推出的比GPT-4强100倍的新一代模型的基础上再发展,应该确实就是比所有人类个体都聪明,再有几年,真正的AGI问世,可不就是比所有人类加起来都聪明?
“AGI之父”本·戈泽尔认为AI迎来指数级“智能爆炸”,他在之前一个AGI峰会闭幕时也预测“几年内就可以创造完全超越人类的AGI”。
和约翰·霍普菲尔德共同获得2024年诺贝尔物理学奖的“AI教父”杰弗里·辛顿(获奖理由是推动利用人工神经网络进行机器学习作出的基础性发现和发明),他的反向传播算法和深度学习推动基础性推动AI发展。
OpenAI公司Chat、sora程序的最大推手,该公司前首席科学家伊尔亚·苏茨克韦(Ilya Sutskever),就是辛顿学生。
但杰弗里·辛顿2023年5月从谷歌离职,目的是“为了可以公开谈论AI的危险”,他认为:这些AI系统正在变得越来越危险,现在似乎还很难看到如何能够防止坏人利用人工智能来做坏事。他也为自己曾经的工作感到后悔······
受他的影响,伊尔亚·苏茨克韦也在1年后——2024年5月离开OpenAI公司,创立新公司SSI(Safe Superintelligence Inc,安全超级智能),表示新公司将致力于追求安全超级智能。
当然,也有人对AI是否超越人类表示怀疑,比如Meta公司人工智能负责人、首席科学家、图灵奖获得者 Yann LeCun,他认为现有人工智能很难在几个重要指标:推理、计划、持久记忆和理解物理世界,赶上和达到人的水平。但同时他认为,通过“目标驱动训练”(他的提法),可以使得这一过程事半功倍,也就是还是认为可以,只不过需要按照他的方法去做。
通过这些人类全球最有代表性、也最知道底细的人的言论,基本可以得到较为确定的判断:到2025年,大模型确实能比任何人都聪明——这个可能在OpenAI公司的新一代模型出来就差不多实现或者即将实现(年底出来后再发展一年?)。大概2028年或者2029年、最迟2030年,大家公认的AGI问世,就对人类形成完全碾压态势。
请记住这一点,不管你同不同意,都请记住,记住后看点东西慢慢理解或者推翻——如果你可以的话,你就牛了。
三、AGI要毁灭人,其实没有自我意识就可以,因为其太神通广大了,但悲哀的是其会有:
很显然,如果AGI真的问世,其显然都不需要什么自我意识,就可毁灭人类,因为其太神通广大了,如果让其控制过多资源——从理论上只要联网就能控制(所有核武器,通讯设备、金融系统、电力石油天然气、交通运输、大坝,家用和公共联网设备····),那毁灭人类,只需要一个指令或者一个“错误指令”,或者由于变异和学习而有了某种指向,就可推动毁灭人类计划,人类拿什么应对?其不仅同时控制的远超人类、整合 高效利用也是。
但根据综合态势,其具备自我意识基本是基本趋势,即便AGI刚问世的时候,还不大具备,但过不了多久,就会具备。
完全具备自我意识的AGI,就成了真正的上帝,毁灭不毁灭人类,只在其“一念之间”。
四、超强的不具备意识的AGI毁灭人类只需要随机事件(有那个指向或接到那个指令即可)、而具有意识的AGI要毁灭人类只能诉诸于其是个永远情绪稳定的“好人”,且不会被其他病毒感染、不会被其它程序等影响,也就是无论如何,都不会去毁灭人类:
通过前面叙述,似乎只能如此假想,但这可能吗?就像女性对另一半的要求一样,只有弱者才希望强者足够善良完美,就像奴隶期望奴隶主那样一样。
对此我要说,别傻了,希望永远在自己,人类的希望就在人类自己。
你连自己都不信,何谈其他??
五、人类想要延续的话怎么办?
人类如果不想延续了,那听之任之就行,但如果想要延续,就得提前有效作为。
但反观人类,你会可悲地发现,现有社会机制和体制、相关思维和作为,都完全无法遏制这一趋势,大多数人还在懵懵懂懂之中忙于自己的生计···杰弗里·辛顿也认可这一点。
美国总统拜登签署了抗拒AI侵犯人权的行政命令,欧盟也予以立法,美英、欧盟、日本、以色列、澳大利亚、加拿大等签署“人工智能框架公约”,但稍微思考的人,就会知道这些举措都无法阻止AGI的发展态势、也无法阻止其毁灭人类的基本态势,美国连立法都没有,欧洲立法了但欧盟的执行力堪忧、再说那个立法完全没有上升到阻止相关态势的高度,至于那个公约,还不如欧盟的立法。
由于美国是信息技术和AI的主阵地与主导,所以如果美国不真正作为,其实意义都不大,但美国要真正作为,在现行体制框架基础上无法实现,首先由于两党的斗争,AI方面稍具约束力的法案无法建立,即便建立了,也还是不够,高度和力度都达不到,再就是现有国会和总统机制到底能否应对AI这一人类的根本性威胁的问题?要知道现行国会和总统,经常连一些具体的细节问题都无法处理,比如援助乌克兰和以色列的问题就能争吵几个月到一两年,且力度不够,还有具体行政机构的问题,何谈人类根本性问题 。
西方体制本就是建立在如何为人和社会发展、经济和科技发展提供尽可能好的服务的,几圈体制则更多为 如何保持控制、自保服务的。
你让这些体制克服和应对解决社会人类整体和自身导致的根本性问题,那无异于天方夜谭,关羽都只能做到让华佗给自己刮骨疗毒,没有人能自己给自己做心脏和 脑外科手术并深度 清毒。
很明显的,导致问题的人类现行体制和机制、相关思维和作为,都无法反过来根本性应对AI毁灭人类的趋势(AI的发展,基础是信息技术革命,是整个人类、包括体制机制观念思维等综合导致的趋势),也无法有效应对其他次一级的人类根本性困境,比如社会分裂碎裂、人性堕落沉沦,以及基本的自然环境和资源问题。
所以要真正解决克服,只有一途:必须跳出这些来思考问题,个人的主张是社会形态重构、或者叫人的革命,辩证回归人本来和应该的状态——“人正视又高于现实世界”的状态,从社会结构和思想观念体系重构两个层面落实:
比如美国,在两院之外,设立人本院,对于一般性事务不遇干涉,但在人类基本问题,比如社会分裂碎裂、人性堕落沉沦,尤其AI领衔的信息技术革命对人的冲击和控制、毁灭的问题,享有最高决策权和处置权,下设相关委员会。再就是建立专门负责应对AI的部门,可以叫信息与AI部。对于各自的权责都予以立法确定,包括宪法。
从而让社会结构,形成“人正视又高于现实世界”的状态。
再就是思想观念方面,也形成相应状态。让社会的内外层面互相支撑和影响、完善,把人挺到最高,从而最大化消除和弱化对人的不利因素,让人走向最远。
文中只能语焉不详,具体,可参阅11月下旬出版的《世界主要形态及走向-人类自救时间或只剩不到10年》。
对,这本书的意旨就是遏制人类被毁灭的趋势,为人类中流击水、奋为砥柱,所立者甚大!当然,最后或许用不上,但作为个人,确实是穷尽一切可能也穷尽了心力·····
人类要长久延续,就无论如何都应该从尽可能广泛的思考和讨论开始,从而尽快促成有效和相对完善的行动和作为,时间要尽可能快。
六、其实10年都是较为保守的说法,人类在几年内AGI问世前就得有个框架,然后和AGI赛跑抢时间:
最大的尴尬在于,人类的改变窗口期确实没多久了,其实10年都是保守说法,几年内AGI就会出来,之后只要其趋向成熟,就具备毁灭人类的能力和可能了,至于到底会否毁灭,都不怎么需要自我意识,只需要一个契机,比如接到相关指令、或者由于“变异”或被病毒感染等而具备向人类整体发难的“意向”或者“趋向”即可,这个契机,会以无数随机的情况出现。可悲的是,其确实会有意识,那样的话,人类会不会被毁灭,只在其“一念之间”,其一秒好多亿好多亿次的计算,其中有一次·······
所以说10年,可能都过于保守,你想等AGI出来,在让其成熟和完善、尤其更发展(AI的发展阶段,以年算有点长,以月差不多),人类还有什么机会可言?你即使毁掉一个AGI,但综合基础早都造就——这是人类发展综合趋势使然、是整个人类在推动,有无数的AGI冒出,每个都可快速毁灭人类。
要之,人类必须在AGI问世之前就有个大体框架,之后和AGI赛跑,AGI指数级发展,人类竭尽所能完善自己的社会形态整体,看能否在被毁灭之前遏住这种趋势。
人类不仅和AI、尤其AGI赛跑,也和自己,和时间,就看谁能赶到前面·····
虽然理论上如此,但你反观这个人间世······或许最后真·····
公号:邵旭峰域
备:邵旭峰传媒