甜心世界app下载最新版:糖心vlog视频在线观看-对谈|震撼全球的DeepSeek,中国AI的报春

我不是糖心vlog 热点 2025-03-05 1 0

2025年初,DeepSeek的问世吸引了无数人的目光,这场技术革新不仅涉及个人与家庭,更影响到国家乃至世界的未来。2月22日,华东师范大学历史学教授、中国现代思想文化研究所副所长许纪霖与复旦大学计算机科学技术学院教授,上海市数据科学重点实验室主任的肖仰华,复旦大学中文系严锋教授,在春秋书院围绕DeepSeek,以及AI的技术革新与应用影响展开讨论。

DeepSeek是不是一场震撼全球的技术创新?

许纪霖:我首先想到的一个问题是:DeepSeek是不是一场震撼全球的技术创新?因为DeepSeek刚问世的时候,围绕DeepSeek有许多争议。但随着讨论的深入,我们发现虽然DeepSeek的确学习了包括ChatGPT在内的人工智能模型的数据,但两者是不同类型的模型。

ChatGPT是由“人工神经元”组成的大语言模型,它模仿人的语言、思维,所以需要海量的数据,通过最高级的芯片形成算力,最终形成我们看到的ChatGPT。

DeepSeek走了另外一条道路,它更多借助逻辑推理,形成一个推理大模型,因此它在数据筛选和各个方面,不去依靠强大的算力,而是通过算法上的改变,来取得成功。

在这个意义上,DeepSeek是青出于蓝而胜于蓝,也是一次成功的再创造。此外,DeepSeek是开源的,它的开源逼迫原本只是闭源的ChatGPT、文心一言等大模型,只能开源来应对DeepSeek的挑战。可以说,DeepSeek的出现,意味着全球人工智能领域的一次飞跃性的突破。

肖仰华:在春节期间,DeepSeek就曾引起境外媒体,尤其西方媒体的关注。他们对此既好奇,也有疑问——DeepSeek是真的突破吗?还是噱头大于实际的宣传?

作为从业人员,我们第一时间有个基本判断,认为DeepSeek是有真东西的,确确实实地取得了一系列技术突破。第一,低成本训练技术。大模型的一次训练大概要花数千万美金,甚至上亿美金。巨大的成本消耗在算力、电费、数据等等,而且一个版本的训练往往要消耗近一个月的时间。早期的大模型训练技术付出了巨大代价,但效果难以得到保证。但DeepSeek通过混合精度训练、混合专家系统(MoE)、注意力机制优化等技术提升了训练效率、降低了训练成本。单次训练的成本降低到了几百万美金一次,是此前主流厂商大模型训练成本的十分之一。

在低成本训练的同时,它实现了当前最高水平的智能。在DeepSeek之前,智能水平最高的大模型是OpenAI的o1。OpenAI有一系列大模型,包括我们两年前见到的ChatGPT,之后的GPT-4一直到o1等。2024年9月,o1的出现可以说是人工智能发展历程中的一座里程碑。o1做到了什么使得我们要赋予其如此高的评价呢?它第一次让大模型能够像人一样去反思:我刚才想的对不对?我是不是应该尝试另一条解题路径?为什么反思的意义非常重大呢?因为这原本是只有人类才胜任的能力,由反思所构成的理性思维能力甚至可以认为是人之为人、人类凌驾于万物之上的根本能力。

哲学家与教育家约翰·杜威认为人类的思维分为两类:一类是机械性思维,一类是反思性思维。我们看到3加5,就会想到等于8,不必加以思考,这是典型的机械性思维。我国过去数十年的教育,很大程度就在培育学生的机械性思维能力,最为有效的题海战术本质上是在培养孩子们的机械性思维。但是,在现在与未来,我们更需要的是具有批判性精神、反思精神的人。其实,杜威在人类的工业文明早期就认为,人类教育的本质是培养具有反思性精神的人,唯有培养具有批判精神、反思能力的新人类才能应对世界的快速变化所带来的挑战。

类似的观点,柏拉图在2000多年前就曾提出过,他认为人类的思维分成工匠性的思维和大师级的思维。工匠性的思维是机械性的思维,看到这个料子就知道应该怎么加工,想都不用多想。但大师性的思维是能够反思,它是怎么做的?它为什么这么做?它背后的原理是什么?这叫大师性的思维。大师性思维的反思性是整个人类文明得以传播与延续的前提。所以人最根本的,或者说凌驾于万物之上的根本特性就在于我们具有反思性的思维,而OpenAI的o1做到了这一点。

但o1是极其昂贵的,最早要几百美金才能使用一次。因为当时OpenAI认为o1的反思已经达到专家的水平,用户只需要将案件丢给大模型,大模型就能像律师一样进行专业思考而得出结论、给出研判过程;或者大模型能够像医生一样给用户的检查报告进行精准的研判与详细的分析并且给出健康建议。这样的大模型服务的确价值数百美金,正因其非常昂贵,很少有用户能负担得起这个使用成本。

而DeepSeek R1的一个成功之处,就在于它复现了o1并达到其复杂思维特别是反思水平,然而在成本上却极大地降低,并做到了免费使用,而且对思维过程完全开放。起初,o1的这个思维过程数据是完全公开的,但很快,OpenAI就再次坚定其闭源发展策略,选择隐藏了整个思维过程数据,这背后是其担心其他大模型蒸馏它的思维过程数据。但是,DeepSeek R1在短短几个月就做到了o1水平,并且选择将思考过程公开。一个选择封闭,对竞争对手保持高度封锁;一个选择开放,对所有人公开自己的思考过程数据。这背后体现的是DeepSeek对自己技术领先性的自信,以及对开源开放战略全面拥抱的笃定。

DeepSeek对教育的冲击

许纪霖:严老师告诉我,他最关心的是DeepSeek出现以后对教育以及认知思维的冲击。实际上,这个冲击是全方位的,每个行业都受到冲击。特别是大学,我的看法是将重新洗牌,不再是分为985、211、双一流、普通高校,而是你这个大学能否培养出能够应用AI从事未来的研究和工作的新型人才。而就业市场也同时将出现类似的洗牌,不再看是否出身名校,而是你应用AI的实际能力究竟如何。每一个人在职场的赛道上,不问出身,将重新站在同一条起跑线上。你意识到了吗?准备好了吗?

严锋:刚才肖老师已经讲到教育的问题。肖老师提到杜威,他的教育思想非常有名,并且通过他的弟子胡适影响了中国。昨天在一个会议上,我遇到华师大中文系的胡晓明教授。胡老师研究中国古代诗词,也写古代诗词,写得很好。在好几年前,他就很关心AI创作的问题,并写了一系列文章,最新的一篇叫《DeepSeek可以写好七绝吗》。胡老师去年去了麦积山石窟,写了关于佛像的诗。之后,他让AI也写同题的诗,他和AI共同探讨怎么把诗写好,这是人机合作进行文学创作的有趣案例,也为未来AI文学的趋势提供了某种启示。

作为一位文学研究者,从三年前开始,我就让AI做极限测试,让它重写经典。第一本让它重写的就是《三体》,这是中国科幻的高峰,人类想象力的极限。我让AI沿用《三体》的设定,去想象在这样的一个星系里的人会怎样生活。在这个设定中,由于三个太阳的不规则运动,经常会出现水深火热,乃至毁灭的情况。我让AI沿用小说的基本设定,但不要使用小说的其他的描写,而是要写出不同的故事情节。ChatGPT一开始写得很差,但一直在进步,到了DeepSeek更有青出于蓝而胜于蓝的意思。小说不仅关乎逻辑,还关乎情感和想象,是非常复杂的人类活动,我认为这是很有意义的一个测试。

另一个测试,就是让AI续写《红楼梦》。三年前,我让ChatGPT写《红楼梦》,它甚至会写出贾宝玉跟王熙凤结婚的故事。现在写得好多了,但还是比不过DeepSeek。这也好理解,毕竟后者使用了大量的中国的语料。此外,我们还能看到DeepSeek能够随心所欲地模仿各种各样的文字风格。坦白说,我作为中文系教授,还没有这样的本领。所以很多人也感叹,文学要亡,中文系要亡,甚至有人说90%的文科论文要作废了。

这些说法也不无道理,但是事情并非这么简单。在我使用AI续写的过程中,我发现AI很会进行世界构建,各种细节信手拈来,也很善于在语言上进行华丽的修饰,但是看多了就会发现它们是在堆砌辞藻。这固然代表目前AI的水平,但我也在想是否与训练所用的文学语料有关。毕竟喂给它的是什么文字都有,不可能仅仅是文学经典,所以产出的作品,就目前而言,也就是一些杂烩而已。要让它写出具有心灵深度的作品,更是有难度。

所以,对于文学创作来说,就目前而言,AI仍然只是工具性的。可以提供创作的点子,进行头脑风暴,帮助作者打开思路,但最终进行选择和整合的,还是人类作者。

随着AI能力的发展,对整个文学生态必然带来很大的冲击。目前AI写的诗歌已经可以让很多人类诗人相形见绌了,AI小说也将会淘汰掉一大批平庸的作者,与此同时,普通的读者也会更轻易地通过AI定制适合自己独特口味的作品,乐在其中。传统的作者与读者的界线将进一步被打破。但这未必是坏事,反而会逼着人类作者专注于创作AI写不出来的,也就是更有文学性和心灵性的作品。

我们也可以从传统文学的角度来看AI的发展。美国对于中国的芯片制裁和技术封锁与《三体》的宇宙社会学不谋而合。宇宙社会学有两条公理,第一条叫生存是宇宙的第一法则。这很好理解,我们都想活着。第二条,宇宙中的能量有限,它的总量是恒定的,文明对能量的消耗在不断增长。这两条公理,看上去很平常,但从这两条公理中就衍生出黑暗森林法则——文明跟文明只有永远的对抗,而且这个对抗非常残酷。就像在一个黑暗森林里面,拿枪的猎人必然要先开枪,因为我无法判断对方的善恶,我无法承担猜错的风险。这引申出两条补充定理,其中之一是猜疑链,必须预设对方是恶意的,因为在宇宙中无法沟通,所以必须预设对方是恶意的。另一条补充定理是技术爆炸,它提出技术发展不是线性的,可能会迎来突变,后发的文明可能超越在技术上比它发达得多的文明。正因为技术爆炸的存在,把猜疑链推向极致,让黑暗森林法则越发黑暗。这似乎也构成了对于现实世界,尤其是大国之间竞争,尤其是AI竞争的某种映射。

许纪霖:日前我和一个诗人讨论人工智能写诗的话题,他告诉我一个有趣的发现:DeepSeek古典诗词写得非常好,因为它积累了许多古典诗词的语料,它的古典文学修养远远超过一般的中文系教授。但是,它的现代诗写得不好,因为现代诗不像古典诗词那么注重声韵规则,现代诗的表现力非常自由,甚至在某种意义上是无规律可循,是一种酒神精神的自由飞翔。这就让DeepSeek有些摸不着头脑。

在这个意义上,人工智能的创作依旧是有内在限制、有天花板的。它或许可以通过逻辑推演去掌握古典诗歌的规律,但在阅读了它的一些创作之后,我认为它的创作缺乏一种空灵感。最好的诗词,像唐诗、宋词是有意境的,但是我没有从AI的创作中发现它的空灵感和独特的意境。看上去很美,但这种美是似曾相识的,是规范的、标准的,就像整容过的标准美人。

AGI(通用人工智能)距离我们还有多远?

许纪霖:这也引申出下一个话题,自DeepSeek开源以后,人工智能的发展日新月异,几乎每一两个礼拜就有新的模型推出。在这样的背景下,我们距离超越人类的通用人工智能(AGI)还有多远?

我个人的猜测是,人工智能的下一步突破,是具有身体。因为只有拥有身体,才能拥有直觉能力,才会有真正意义上的想象能力和原创能力。英国大思想家卡尔·波普将人类的世界分为三种,世界1是物理世界,目前AI还不具备感知能力,世界2指的是无法与人的身体分离的直觉和悟性,而现在人工智能所运用的知识,则属于世界3,也就是可以与人分离的理性知识。只有世界3,通过逻辑的推理对已有的理性知识进行提炼概括,并且上升为AI所拥有的理性认知境界,是有天花板的。真正的突破离不开世界2,而世界2的直觉和想象能力,又必须拥有肉身,对世界1有感知能力。

正如黄仁勋所说,人工智能的下一个阶段,就是具身AI。脑机接口技术的普遍运用和仿真机器人的出现,将让人工智能具有对物理世界的感知能力,并且发展出他的直觉、想象和悟性,到这个时候,AGI时刻就降临了,硅基生物也将拥有他的主体意识和自我意识,而这一全新的物种“非我族类、其心必异”,他能够达到的境界,完全不是我们这些碳基生物所能想象的。

肖仰华:许老师提出了非常值得深入思考的问题。我先谈谈感性的部分,大家刚才都提到了作家和创作。从工科的角度来看,人类的很多创作本质上,是字词、图像、音符等内容元素的随机拼贴。从这个意义上来讲,人工智能可以从一个更大内容选择空间中,或者说更大的创作空间,以人类意想想不到的方式进行组合或者说创作。

在这些组合里面,往往就有我们认为优秀,具备灵感与灵性的内容,有些内容甚至是所谓富有想象力与有创造力的产出。文章本天成,妙手偶得之。优秀的内容从可能性的角度来说早已存在在那里。只不过通过某个作家的灵光一现再现了这个作品,今天艺术创作过程的主体进一步换成了AI。所以,未来的生成性、创作性的工作,AI只可能要比人类做得更好,更加胜任。

但是至于它的作品到底好还是不好,还是完全由作家自己来判断。它的作品是不是符合你当下的情感需要?是不是符合当前的人类社会的境遇情况?是不是能够引起某个群体的共鸣、共情?这些依旧是由人类个体或者群体来判断、评价与选择。如果做个比喻,未来人类的主要任务就是在AI生成的内容沙滩上去捡贝壳。AI一定能够创作出最美的图画、最动听的音乐,最动人的故事,最动情的诗歌,但是哪一个作品是最打动人心的?还是由人类依据此情此景、文化习俗、审美标准来评价,来选择,来解释。

回到问题本身,AGI是否会到来?这个问题有个先决条件:AGI是什么。人们之所以对此感到困惑,恰恰是因为AGI缺少一个公认的定义。刚才许老师试图去给出一个定义:AGI是超越个人或者整个人类总体的人工智能。这是一种定义。

如果我们把AGI定义成是超过我们人类的智力水平的AI;而人类智力水平又是基于人类的各种考试与测试所检验的,那么可以说在这个意义上AGI早晚会到来。事实上,去年的AI就已经达到了某些省的文科一本,理科二本的水平;今年的AI应该可以在所有人类已知考试中轻松达到人类冠军水平,通过研究生和博士生的入学考试更是不在话下。

但是反过来说,人类是不是应该因此感到恐慌呢?其实一切所谓的AI到来所造成的恐慌,都是因为人工智能让大家就觉得人类没用了。换句话说,AI在冲击旧的人类价值体系。事实上,未来人仍有其价值,我们真正需要尽快开展的工作是重新定位人在AI时代的核心能力,重建人类的价值体系。

控制论鼻祖维纳写过一本书《人有人的用处》,在当下AI大发展时代,用其书名来提振人类对于自己的信心再恰当不过。人相对机器而言,有很多“不可计算的心智特性”是独特的。有趣的事实是,这是DeepSeek帮我总结归纳生成的术语。如果仔细思考DeepSeek的运行过程,其本质仍然一种计算过程,是一种基于复杂电磁规律的物理过程。但是人和人相遇则会发生很多化学反应,我们的荷尔蒙分泌之后、多巴胺分泌之后,我们会体会到如沐春风、心潮澎湃等情感体验。正如泰格尔所说的,我们每个人都应该活成一道光,照亮身边的人。

这样一种人与人之间的化学反应,对人际关系的影响,是机器所不可代替的。人类身上还是有很多不可计算、难以计算的特性是机器无法代替的。相信要不了多久,机器人就能走进家庭、料理家务、护理老人。但是机器再精细而准确的服务,也代替不了来自儿女的对老人的一句深情问候;机器再如何完美的情感陪伴,也代替不了来自同类的一次爱抚与拥抱。这就是人不可计算的特质。

从这个意义上来讲,AGI永远实现不了。它或许能在一切由物理过程所决定的方面,远远超过人类;但在一切需要化学反应的地方,无法比肩人类。那么又有人会说,我们可不可以给机器也植入一些类似多巴胺的化学要素?比如,有一些公司已经在设计仿生材料的人形机器人等等。或者反方向的研究对生物神经元的算法操作。如果这样的实验和设计成真,那么未来AI可能就会成为新的生命物种,就像《西部世界》中描绘的那样,对于这类物种我们可能要赋予它与人类对等的地位。

许纪霖:这在法律上有禁令吗?

肖仰华:非常好的问题。在我看来,这一步是不应该迈出去的,除非你想搅乱这个世界。这是非常危险的一步,在某种意义上就是造人。

但是如果我们把时间尺度拉长,我们还要有一种担心:我非常同意许老师提到的身体的重要性,但身体同样是一种禁锢,使灵魂禁锢在身体内,而且身体是会灭亡的。所以我们才会去寻求有限生命的无限意义。人类追求意义的源头是强烈的自我意识,正是有限、短暂的身体激发了人类这个物种存在、生存和延续的内在需求,进而产生了强烈的自我意识,然后有了物我两分,并产生各种纷繁的意义。可以说,整个人文和社会学科都建立在这一基础上。

大家可能会设想这样一个问题:除了拥有身体之外,AI还需要具备哪些条件,才可能诞生人类水平的自我意识呢?这实际上是非常值得去严肃思考的。意识的诞生条件究竟是什么?这是科学家哲学家尚未能够清晰回答的问题。我认为可能有几个条件:一个是要有身体。第二个是要有群体,也就是某种智能体要有一定的规模。第三个是要去进化,要在环境中去试错,去反馈和进化。智能本质上是有环境塑造的。目前地球上只有人类这个物种达到了高水平的意识,有些动物也具备了初步的、一定的自我意识,但是要形成人类水平的意识需要依靠上述几个条件:要有身体,要有群体,在一个漫长的进化时段去进化,通过漫长的为了生存而奋斗的实践,才可能激发出较高的意识水平。

当然,人的意识问题并没有得到完全解答,自我意识的诞生还有一些神秘之处。哲人们似乎一直保留了一定程度的对未知的敬畏,从未排除某种更高级存在为人类包括万物设定了基本的智能进化规则的可能性。严老师刚才提到,所有的物种都有着内在的追求生存和发展的倾向,那么或许有人会问为何创世之初不是相反的设定呢?为何不是内在毁灭的倾向呢,这种设定也有待反思。如果假定某种更高级的存在预先做好了种种设定,则容易理解与解释很多智能现象。

其实今天的AI发展已经非常接近人类的激发方式,DeepSeek R1复杂思维能力是通过强化学习算法习得的,是在可能的思考空间进行探索、试错,以求得尽可能优的解决方案。这种智能的习得机制非常接近人类智能进化机制。R1的强化学习甚至自发发现了新颖的反思模式,也就是所谓的“Aha moment”,这就好比人类的顿悟,经过苦思冥想后突然灵感迸发。整个R1的学习过程完全是其基于强化学习的自主学习,整个学习过程是无人干预的。人类唯一的干预只是设定强化学习过程中对思维方案的好坏判定的基本规则。我们通过设定一个简单的判定目标,AI就能自主找到最优的思考路径。将来,这个来自外在的设定完全可以简化为让AI智能体尽可能生存和延续,就好比科幻作者阿基莫夫为机器人设定的三定律。从长远来看,人工智能或许有可能会进化到接近某种生命的形态,因此对于其进化过程中是否会发展某种程度的意识水平是需要严肃研究与监管的。

但必须强调的是, AI发展到这个阶段,我们要严肃地思考,关于人工智能的发展究竟会带来什么。表面上看,人工智能是生产力,但它的生产力和破坏力同样巨大。我们真的想亲自去创造一个挑战人类的新物种吗,更何况这个新物种要比你强大得多。但悲观地来看,人类社会往往只有经过重大的灾难才会去严肃反思。这就是为什么人工智能的监管如此重要。

严锋:我刚才听了很感动,肖老师不光是硬核的专家,前沿的研究者,也有很温暖的人文关怀。但是,关于人类的不可计算的心智特性,其实我是有一点怀疑的。因为现在有一些人工智能的应用,已经演变为心理治疗师、抚慰者,甚至作为一个虚拟的性伴侣。更令人吃惊的是,现实中很多人沉迷于跟ChatGPT对话,甚至觉得人工智能所扮演的角色,要比现实当中的更好。我们原本以为心灵是人类最后的防线,但现在人工智能可以说比我们更了解我们自己,这对于人类的心灵性也是一个挑战。这也是对技术发展与监管挑战。

许纪霖:刚才肖老师有一句话是很令人震撼的。AI有多大的创造力、生产力,就有多大的破坏力。这和原子弹、核技术是一样的。

在ChatGPT出现以后,出现了技术加速主义和与人类对齐的对齐主义的大争论。在Open AI公司内部,还因此发生了一场宫斗剧。但DeepSeek出现以后,似乎技术加速主义占了上风,对齐主义的声音反而比较微弱了。然而,因为开源,在AI技术飞速发展的当下,AI的破坏力将更大,道高一尺,魔高一丈。我们应该怎么去看待AI的破坏力?在未来AI普遍开源的背景之下,又如何处理技术发展与人类对齐的平衡呢?

肖仰华:自AI问世的第一天起,关于人工智能加速与对齐、发展与监管的讨论就从未停止。但自DeepSeek问世以来,业界渐有全面拥抱加速而忽略对齐的倾向。近日,法国的人工智能峰会上,美国副总统万斯在发言中表示:美国要成为全球人工智能竞争中的领导者,要将人工智能发展变成美国再次振兴、再次伟大的生产力,并且明确反对关于人工智能的对齐与监管。

回到国内,我们多还沉浸在能够用上最先进大模型的喜悦中。有媒体称借助DeepSeek,耗费人类10年的繁杂政务工作,DeepSeek一天就做完了,这是生产力的巨大提升。归根结底, DeepSeek让最先进的大模型技术平民化、普惠化,让老百姓用上最先进的大模型,享受到AI带来的便利。这当然会让整个社会感到欣喜。

但同时,我们也要认清AI可能带来的各种问题,做好相应的防范和治理工作。有些人认为,所谓AI风险不过是危言耸听。但事实上AI应用带来的问题,已经发生在我们的日常工作与生活中。比如各位专家学者辛辛苦苦发表论文、出版著作,但AI可能在未获得你的授权同意下直接学习其中内容。我最近就发现,AI关于某些问题生产的内容,和我曾经写过的文章观念非常相似,但它重新组织了内容形式,避免出现大段或连续的原文内容,规避了抄袭和侵权的指控。作者们只能是有苦说不出。

另一方面,AI也可能抓取到一些在网络上的隐私信息。比如一些教师在教学中分享给学生自己的个人信息,结果被AI抓取并被大模型学习,使得任何普通用户都可以通过提问接触到这些隐私信息。这些问题已经在发生,只不过我们可能还没有意识到。

比这些问题更可怕的,是AI的大规模滥用和误用。比如现在很多地方政府、教育管理部门鼓励小学生、中学生使用AI,这个原则并没有错误,但我们有没有思考清楚,在教育中究竟应该怎么使用AI?我看到很多学生用AI写作业、写报告,学生们交上来的作业与报告“含AI量”越来越高。作业与报告本身的目的是鼓励孩子的独立思考;如果我们不去监督孩子的独立思考,放任其对AI的使用,学习者的相应能力就无从发展。所以我们在鼓励AI发展的同时,一定要想清楚其中的细则,比如在教育中哪些场景可以用,哪些场景不能用。我在教育方面,一直坚持一条原则:重教轻学。涉及教的环节,大胆使用AI,把老师们从繁重的备课、阅卷、出题里解放出来。但到了学生学的环节,就要谨慎使用AI,避免其形成AI依赖。

另外一个非常迫切的问题,就是AI对就业结构的重组造成的冲击。目前的就业结构已经跟不上AI发展步伐,有大量的传统职业要被淘汰。第一波受到大规模冲击的,就是程序员。这两年互联网大厂裁的都是程序员,因为现在AI写代码准确率越来越高。以AI现在水平基本上可以减少40%左右程序员岗位需求,这个趋势只会愈演愈烈。除此之外,无人车去年在某些城市的使用也对网约车司机、出租车司机等岗位带来巨大冲击;类似公务员的文案工作,以及窗口型服务工作,也将很快被AI取代。

有一些人认为,AI时代会创造很多新的就业机会,因此担心AI的就业冲击是杞人忧天。首先我们要承认,AI的大规模使用一定会创造全新的就业机会,比如大模型“炼丹师”,也就是大模型训练工程师。但问题的关键在于,AI创造新的就业岗位的速度远远慢于AI毁灭旧的工作岗位的速度。AI的过速发展并没有给我们人类社会结构、就业结构的缓慢转型留下充足的时间。这就是当下时代的最根本的矛盾,而这个矛盾会引发大量的问题。

或许会有人说,AI发展速度会慢下来。我的预测是AI发展只会加速。因为AI研发与大规模应用有政府与资本推动。作为新兴技术革命的代表、作为新质生产力,AI浪潮是时代发展趋势,是不可阻挡的,关系到国家竞争,决定民族兴亡,是不容错失的重大发展战略机遇。同时,资本逐利的本性,势必要求AI产业的大规模投入得到变现。AI的大规模应用,像水、电、通信网络基础设施一般的大规模应用势在必行。

在这一过程中,很容易出现AI滥用。AI大规模滥用带来的问题,包括教育升级、经济结构转型、人力资源市场调整,甚至社会关系革新都需要时间。人类社会的一切上层建筑的调整都是缓慢的、经不起震荡,唯有温和变革才能维系全社会稳定。AI的过速发展和人类社会结构的缓慢调整之间的矛盾,怎么去调和,这都是我们需要去思考的问题。

如果我们不想深度思考并积极应对这些问题,AI就可能给我们带来人类难以承受的损失。一旦AI带有破坏力的一面被放大,那么AI本身也就无法持续发展。AI的可持续发展能力,才是一国AI时代最核心的竞争力。

在我看来,开源进一步放大了发展与监管之间的矛盾。开源让先进大模型人人可用。人人可用也就意味着不良用心的人也可以使用先进大模型欺诈、造谣、作假,甚至制造武器,危害社会。如果只是把矛磨得越来越尖锐,盾不够厚实,那么社会就一定会失衡。所以,面对越来越尖锐的矛,我们一定要铸造越来越厚重的盾,才能做好AI的可持续发展。随着开源的发展,我们更需要更加迅捷和有力的监管和治理工作。总体上,目前的治理与监管工作跟不上AI应用速度。这个矛盾有可能正在酝酿一些潜在风险。

或许会有人说我们完全可以先发展再治理。互联网发展我们就是如此得到实惠的。然而,AI不同于互联网。AI是以全面发展人类水平的心智能力,并取代人类的同等水平所能胜任的大部分人类工作为目的的。AI大模型滥用可能会造成积重难返的困境。事实上,即便我们反思先发展再治理的互联网现代服务业,我们仍然能够发现一些其发展所带来的代价。比如我国有着全世界最先进的互联网外卖服务业,但也造成了大量的宅男腐女,加速了低生育时代的到来。诸如此类种种问题,我们不能因为发展而选择性忽略。事实上,发展AI最大的风险,恰恰是大部分人尚未意识到它的风险,而只关注它作为先进生产力的那一面,忽略了其破坏性的那一面。正确的态度是在大力发展AI先进生产力的同时,以前所未有的积极姿态未雨绸缪做好应对与预防。

许纪霖:的确,今天我们都沉浸在一片欢欣鼓舞当中,但AI可能对人类带来各种威胁。就像核技术出现以后,并未像奥本海默所期望的那样,被导向善的用途。今天,是又一个“奥本海默时刻”。即使意识到AI的破坏性,因为发达国家的竞争,现在成为了AI的军备竞争,谁掌控了AI的顶尖技术,谁就拥有全球的霸权,无论从科技、金融、制造业,还是从军事来说,都进入了一个以AI为核心的全方位竞争。一旦陷入了以国家利益为中心的非理性竞争,那么全人类的利益便被搁置了。说得稍微过分一点,人类的未来敌人(硅基生物)已经在敲门了,但碳基生物还在忙于内斗,不知大祸临头,或者即使知道了,也只顾眼前的国家霸权。

严锋 :就像肖老师说的,一些人甚至可以用AI写出恶意代码,流氓软件,堪比撬门撬锁。这非常可怕,但是我们抵挡不住。

还有一个问题,我作为老师更加感同身受,就是学生对于AI的依赖。尤其是在阅读学生上交的论文过程中,教师怎么知道学生写了多少?怎么知道学生有没有学进去?这里面是不是存在教育的退化?如果所有的答案都是现成的,学习就不复存在,最终人类就会退化。

我甚至在想,以后可能我们需要更多的线下教学。包括新闻也是如此,更需要身在现场的调查记者。现在打开某些网站的首页,很多都是AI写的内容,非常无聊,甚至误导,但至少目前我们还能够分辨。将来随着技术进步,生成的视频、图像都能够以假乱真,所谓的后真相时代和信息污染将造成巨大的危害。

那怎么保护好自己?我觉得我们要小心网络。我现在相信生活的三个H,第一个H是Health,就是健康,身体和心理的健康。第二个H是Happy,光有健康还不够,还要Happy。第三个H是Hidden,隐藏。这也是三体给我的启示,就是人类面对AI的风险,我得隐藏好自己,保护好自己的个人信息。要了解、学习、掌握如何隐藏。我认为我们甚至要回到传统当中,减少网上的曝光,不要让AI轻易地找到你。

如何释放创造力?

许纪霖:差不多一年多前,我们与肖老师聊过中国的AI和ChatGPT的差距有多远。当时肖老师说,其实中国在数据方面是有优势的,算力方面也不差。但真正有距离的,是中国的AI公司的软实力,那种内在的组织形态。

今天许多国企、互联网大厂的办事程序之繁琐,开会之频繁,都让我非常惊讶,在这样的环境下很难激发出员工的创造力,产生真正的技术创新。谷歌这种大厂之所以还有创新,是通过收购初创公司,让它们独立运作。今天DeepSeek的成功,在我看来,很重要的是公司的组织形态与众不同。首先幻方不差钱,不用看投资方和股东的脸色,其次梁文峰让公司招来的顶尖人才,不陷入各种程序和规范的约束。激励他们的好奇心,提供给他们充分的个人自由,与其说是一个公司,不如更像一个研究院,内部充满了松弛感。

我现在的问题是:DeepSeek的成功是偶然、不可复制的吗?还是说,国内已经存在这么一批有潜力的初创公司,只要政府不去过多地干预,就能爆发出惊人的能量?

肖仰华:我觉得这是一个非常好的问题,最近大家也展开了很多相关的讨论与反思。为什么DeepSeek诞生于杭州,而不是北上广深这些大城市?为什么是民营企业在人工智能方面取得突破,而不是有大量投入的科研院,或者国企、央企在这方面有所突破?这些反思都有其价值。

实际上我们去看DeepSeek的成功,它有一定的必然性。这种成功得益于很多因素。第一,DeepSeek是初创企业的成功,整个公司也就一百多人。这个阶段的公司,和人类的发展过程中的儿童阶段一样,保持着最强的好奇心和创造力。过早地掐灭孩子的好奇心和创造力,进入某种模式化的教育,就是在毁掉难能可贵的创新精神。

所谓的大公司就好比成年人,大部分人成年后,已经丧失了创造力和好奇心。梁文峰一直在非常小心地呵护团队的创造力和好奇心,让他们勇于探索,敢于探索,最终才能有DeepSeek这次突破和创新。我认为全社会都需要努力为他们创造环境,去呵护这种创造力。

第二个点就是杭州的营商环境,能够保证所有公司在相对宽松与公平的环境野蛮生长。在科技创新方面,太过细致的政策,太过详细的计划,反而可能压制了创新的涌现。伟大往往无法被计划。另一方面,一些地方的种种扶持政策带来了头部企业的资源倾斜,反而挤占了同行业其他企业发展机遇和空间。

还有一点是许老师刚刚提到的,DeepSeek是自给自足的,它不需要背负投资人的期望,以及变现的压力。我们可以想象,某些初创企业在投资压力下,一定会选择最稳妥的道路,也就是复制成功者技术道路;一定不敢去试错,因为没有时间和机会去试错。但伟大的创新一定是通过不断试错后得出的。我们理应要鼓励试错,宽容失败,但很多投资是不允许失败的,被投企业又怎敢大胆尝试呢?

当然,我们也要意识到中国的优势。第一,我国在先进技术的成本控制方面非常有经验。从高铁技术,到新能源汽车,到光伏,再到大模型,控制与持续降低成本能够帮助我们建立更大的市场竞争优势,占领更多的全球市场。第二,我国在人工智能发展的基础设施方面要优于美国。前段时间,美国启动了名为“星际之门”的AI开发联合出资项目,投资达到五千亿美元,建立AI开发的数据中心。这也说明美国意识到了人工智能基础设施的重要性。但在集中力量办大事、在人工智能基础设施建设等方面,我国更具优势。最后,在统筹发展方面,我们占据优势。美国的政体决定了两党之间的互相拉扯,长期政策延续性差,缺乏统筹和规划。但AI的发展离不开高效率政府的统筹和规划。我国在激活数据要素价值、在AI治理与监管方面都有着统筹发展方面的优势。因此,只要保持宽松、宽容的创新创业环境,我们有理由相信中国人工智能终将很快走上一条高速、可持续发展的道路。

「活动」注册就送新人大礼包

84.29MB
版本V9.84.14
下载糖心短视频logo安装你想要的应用 更方便 更快捷 发现更多
喜欢 18%好评(87人)
评论 40
0 1 2 3 4
详细信息
  • 软件大小: 81.23MB
  • 最后更新: 2024-09-16 18:34:53
  • 最新版本: V8.28.17
  • 文件格式: apk
  • 应用分类:ios-Android 好瓜.中国
  • 使用语言: 中文
  • : 需要联网
  • 系统要求: 5.41以上
应用介绍
一,糖心volg公司在哪,糖心独家免费
二,18糖心vlog,51吃瓜中心-吃最新最真的瓜
三,穿旗袍教茶艺的娜娜登场,糖心logo安安老师
四,糖心vlog网页,糖心vlog合集
五,txvlogcom糖心二维码,糖心vlog传媒在线观看
六,嫩草精品17c一起草,糖心vlog酥酥的视频
七,糖心vlog入口网站小桃,吃瓜网站

【联系我们】
客服热线:139-8888-666
加载更多
版本更新
V1.22.17
51吃瓜网,偷香四兄妹选择

猜你喜欢

相关攻略
包含 饿了么 的应用集
评论
  • 4天前
    糖心vlog官方入口国产
  • 糖心vlog在线观看破解版 7天前
    糖心v log破解版
  • 娜娜nana卡洗衣机是什么 7天前
    热点吃瓜 今日黑料
  • 糖心免费视频在线观看 6天前
    泡芙短视频app在哪里可以赚钱
  • 《糖心淑女》朦荳 2天前
    国产糖心传媒
  • 糖心vlog兑换码2023怎么领 4天前
    糖心玛瑙的心做的手串
  • 糖果app官方入口 5天前
    每日黑料51
  • 17c一起草+国产更新时间 4天前
    三年片在线观看免费观看大全
  • 糖果222tv游戏 4天前
    糖心苹果什么时候才有的
  • 糖心vlog网站地址在线观看 9天前
    麻花影视在线观看电视剧琅琊榜