huozm32831 |
2023-12-04 20:00 |
最近科技圈子里最热闹的事情,莫过于全球人工智能巨头OpenAI围绕CEO阿尔特曼,整出的狗血剧。从阿尔特曼被董事会无缘无故解雇,到公司员工“逼宫”抗议董事会决定,再到阿尔特曼重新被任命为CEO,“从国王到流亡者再到国王”,这出戏简直比宫斗剧还精彩。
随着阿尔特曼重新执掌OpenAI,此事算是告一段落了,但是相关的议论到现在还没有停止,其中到底是什么原因让董事会要罢免阿尔特曼,是外界最关心的一件事。
在阿尔特曼被解雇之前,OpenAI是当今科技界最耀眼的明星之一,头顶诸多光环,这艘船似乎顺风顺水,无论怎么看,董事会都没有理由踢掉阿尔特曼这位优秀的船长。
按照OpenAI董事会的说法,之所以要解雇阿尔特曼,是因为他不坦诚,许多想法没有与董事会沟通,影响到了董事会履职的能力,另外董事会对他能否继续领导OpenAI,也不再百分百信任。这个说法很模糊,听得人一头雾水,外界根本琢磨不透。
不过最近几天又有一种说法,称阿尔特曼被解雇与OpenAI正在研发的一个项目可能威胁人类有关。知情人士曝料称,在OpenAI内部,除了众所周知的ChatGPT,还有一个代号为“Q- star”的项目,“Q- star”能干的事情,比ChatGPT要多很多,性能更强大。
要说AI威胁人类这个话题,并不是最近才开始讨论的,早在AI诞生之初,许多人就表达了担忧。
已经逝世的英国科学家霍金就曾表示,人类文明可能因为AI的崛起而终结,一手创办了OpenAI的世界首富马斯克,也认为AI存在毁灭人类的风险。
他在一档纪录片中表示,AI技术不断进化,会树立一个属于自己的目标,如果在达成这个目标的过程中,人类试图阻止它,双方就会爆发冲突,而届时以AI的能力,碾压人类完全不成问题,人类将被AI踩在脚下。
另外不久前,OpenAI的首席科学家苏茨克维向媒体吐露,他们在科研过程中,发现ChatGPT似乎已经有了一些自主意识,对他们来说,接下来最大的挑战可能不是打造更加厉害的AI,而是想办法控制和应对AI发展对人类产生的潜在威胁。那么问题来了,AI是否已经具备了威胁人类的能力?
从短期看,AI的出现确实影响到了许多人,但是它还不足以威胁人类。当下人们讨论AI的威胁,更多的聚焦在AI替代了一部分人的工作,随着AI的发展和广泛运用,未来人类可能出现大规模的失业潮,尤其是从事简单重复性工作的劳动者,可能彻底沦为AI的炮灰。
目前已经出现了这个迹象,许多企业接入了像ChatGPT这样的大模型,从撰写邮件、视频脚本、文案、翻译和编写代码等方面展现的能力看,它替代许多人的工作并不是耸人听闻,而是一个相当现实的问题。今年过来,不少企业传出了运用AI进而大幅裁员的消息。
但是如果因为AI的出现取代了一部分人的工作,就说AI威胁人类,显然是片面的,而这种担心其实也会限制AI的发展,其实我们不妨把AI看作是人类的“第四次工业革命”。
之前三次工业革命在刚刚开始的阶段,也会出现一些人的工作被新技术取代的现象,像第一次工业革命中,纺织机取代了纺织工人,引发了工人的不满,为此许多工人冲进工厂打砸焚烧机器。
但是技术的发展与进步,从来不是一部分人所能阻挡的,而且新技术的出现也会创造大量新的岗位,例如第三次工业革命中,计算机的出现在“消灭”一些岗位的同时,也出现了很多与计算机相关的产业,尤其是互联网产业一直繁荣到了现在,成为当前容纳就业人数最多的产业之一。
所以没有必要一听新技术出现了,就大喊“狼来了”,不如让“子弹飞一会”,先观察观察再说。
参考过往的三次工业革命,AI应该同样也会如此,一部分岗位因为AI消失后,必定会有一些新的岗位出现,只是在短时间内AI创造的新岗位,可能没有因为它的出现、而导致的旧岗位消失的数量多,因为任何一个新的产业,需要很长的培育时间,不可能在短时间内需要大量的人力。
另外一些人没有做好自己的工作被AI取代的心理准备,所以AI的出现让他们很焦虑,这种心理在无形之中,会无限放大人们对AI的担忧,当这种担忧上升到社会层面,就会形成一种负面的舆论。
从AI的发展趋势看,未来相当长的一段时间里,AI依旧是人的能力的一种延伸,AI的发展不大可能跳出人类的控制,成为“脱缰的野马”。
就拿ChatGPT来说,尽管它变得越来越厉害,越来越智能,无限接近人,甚至超越人,但它终究还是一个基于深度学习完成任务的机器,不具备人类的情绪等主观、独有的特性。就像许多人说得,AI再厉害,还能厉害过人类吗?电源一拔,啥也不是。
虽然是调侃,但也很形象地说明了AI仍旧掌控在人类的手里。所以说,从短期看AI确实影响了人类,甚至冲击到了一部分人,但说它威胁人类,就有点过了。
不过从长期看,AI对人类的威胁,是客观存在的,这取决于AI的发展能否取得重大的技术突破,这里说的重大,并非一般意义上的重大,而是指AI具备独立思考判断和独立行动的能力。
也就是说,它除了在生理上与人类不同外,其他方面完全可以媲美甚至超越人类,如果到了这个阶段,AI毫无疑问将威胁人类。
对于AI能不能进化到这种程度,目前人类有不同的意见,有些人认为,技术的发展进步会让“一切皆有可能”;也有人认为,有些技术注定是突破不了的,AI的发展有天花板,突破不了天花板,就不可能对人类构成实质性的威胁。
其实与其说AI对人类构成威胁,倒不如说是人类威胁自己。
因为AI的发展,依托于人类的技术,想消除这种威胁,其实也并非难事,最有效的办法,就是在AI进化到拥有自主发展意识之前,明晰AI未来的发展方向,将AI所带来的潜在风险控制在可控的范围内。
而这不能依靠科学家的自觉,因为人性是最复杂、最把握不住的东西,必须要有更加可靠的规范方式,例如法律。
好在目前全球已经开始关注AI的风险,并且尝试用法律去规范AI的发展。不久前,28个国家的代表在英国布莱切利庄园探讨了AI的风险,会后签署了《布莱切利宣言》,这份宣言的发表,宣告了国际社会联合治理AI的时代已经来了。
另外在这场会议前,许多国家也出台了一些涉及AI的法律法规。可以确定地说,只要人类自己不作死,AI就不会威胁人类。
对于AI对一些人工作的冲击,与其担心不如主动去学习,争取让自己驾驭AI,而不是让AI取代自己。当你还在焦虑的时候,许多人已经通过学习用上了AI,让自己变得更具竞争力。这个社会和时代就是这样残酷,“物竞天择,适者生存”。
再回到阿尔特曼被解雇,又再次被聘用这件事上,可能OpenAI的董事会作出这个决定,确实与“Q- star”项目可能威胁人类有关,但应该不是根本原因。当一项技术或者一个企业,与资本市场挂钩,所有的一切都逃不出资本的魔掌,一切都要为资本服务。这么一出闹剧,不可能与资本没有一点关系。
或许OpenAI不赚钱,在商业变现方面存在不足,才是阿尔特曼被解雇的主要原因。要知道OpenAI从2015年创办发展到现在,已经走过了9个年头,包括微软在内的大股东,投入的资金累计超过了百亿美元。按理说一个企业诞生快10年,也该到了给投资人赚钱,让投资人看到回报的时候了。
但是OpenAI在现在乃至未来很长的时间里,多半还是一台“烧钱”的机器,盈利前景好像不差,但也充满了不确定性。尽管去年推出的ChatGPT用户数量增长很快,也上线了付费模式,但是ChatGPT每年给OpenAI带来的收益,可能还抵不上OpenAI一个月的花销。
咱们都知道,资本是逐利的,开公司、搞投资就是为了赚钱,如果投资一个项目长时间亏钱,换谁来也不大愿意,没有一个商人或者企业投钱是来搞慈善的。
OpenAI不赚钱,投资人不满意,董事会压力大,此时找个背锅的,去平息一下投资人的情绪,这在生意场上很常见,而公司的CEO往往就是这个“背锅侠”,所以将OpenAI连年亏损与阿尔特曼被解雇联系起来,也没有什么不妥,一切看起来很合理。
当然这也只是一种猜想,未知的事太多,阿尔特曼领导下的OpenAI未来将如何发展,AI将走向何方,能否与人类和谐相处,咱们只能“骑驴看唱本,走着瞧”。 |
|