内容标题17

  • <tr id='ufdkIA'><strong id='ufdkIA'></strong><small id='ufdkIA'></small><button id='ufdkIA'></button><li id='ufdkIA'><noscript id='ufdkIA'><big id='ufdkIA'></big><dt id='ufdkIA'></dt></noscript></li></tr><ol id='ufdkIA'><option id='ufdkIA'><table id='ufdkIA'><blockquote id='ufdkIA'><tbody id='ufdkIA'></tbody></blockquote></table></option></ol><u id='ufdkIA'></u><kbd id='ufdkIA'><kbd id='ufdkIA'></kbd></kbd>

    <code id='ufdkIA'><strong id='ufdkIA'></strong></code>

    <fieldset id='ufdkIA'></fieldset>
          <span id='ufdkIA'></span>

              <ins id='ufdkIA'></ins>
              <acronym id='ufdkIA'><em id='ufdkIA'></em><td id='ufdkIA'><div id='ufdkIA'></div></td></acronym><address id='ufdkIA'><big id='ufdkIA'><big id='ufdkIA'></big><legend id='ufdkIA'></legend></big></address>

              <i id='ufdkIA'><div id='ufdkIA'><ins id='ufdkIA'></ins></div></i>
              <i id='ufdkIA'></i>
            1. <dl id='ufdkIA'></dl>
              1. <blockquote id='ufdkIA'><q id='ufdkIA'><noscript id='ufdkIA'></noscript><dt id='ufdkIA'></dt></q></blockquote><noframes id='ufdkIA'><i id='ufdkIA'></i>
                首页|滚动|国内|国际|运营|制造|监管|原创|业务|技术|报告|测试|博客|特约记者
                手机|互联网|IT|5G|光通信|LTE|云计算|芯片|电源|虚拟运营商|移动互联网|会展
                首页 >> 必读一 >> 正文

                任正非达沃斯发言实录:美国不必过于担心华为的成长

                2020年1月22日 09:50  新浪科技-自媒Ψ 体综合  

                来源:华为

                2020年1月21日,华为创始人兼CEO任正非出席在瑞士达沃斯举办的世界经济论坛年会并发言。以下为任正非发言纪要。

                1、主持人Zanny Minton Beddoes,《经济学人》主编:我想找到你们的共通点,就是你们对历史的热爱。赫拉利教授是一名专业的历史他這是研究突破后学家,在我看来,任先生也是非常喜欢历史的,您一直关注一些历史问题。因此,你们两位都能很好地和我们分享下对未来发展的看法。在★接下来半小时,我们主要针对三个较宽泛的问题进行讨论。

                首先,这场科技军备竞赛会让哪些因素面临风险?对人类来说,对世界▲来说,这个科技军备竞赛有多重要?这个问题仅关乎市场主导地位,还是说这是一个更深层次的问题,关乎市场体制的未来发展、民主的未来发展、以及未来谁将成为全球主导者?哪些因素会处于危险境地?

                其次,这场科技军备竞赛会带来什么后果?会发生什么?全球是否会分裂为两个生态系统?这意味着什么?

                再次,我们『需要怎么做才能避免最坏的结果?达沃斯论坛正试着避免用过〖于乐观的角度看问题。所以我希望你们能分享一下,我们究竟应该怎么做,才能确保产生最好的结果。

                首先,有请赫拉利教授分享下您对第一个问题的看法。那就是哪些因素手掌心嗎会处于危险境地?我想从您的书中选取一句话,作为我最主要们今天讨论的开始。您写道,未来一百年,人类将迎来前所未有的变化。人工智能和生物ζ 技术可能会破坏个人自由这一观念,让自由市场和自由民主制度成为过去式。民主如果以当前的形式发展的话,将无♀法抵御生物技术和信息技术融合的侵蚀。所以,我们是不是可以说,面对这一发展趋势,很多方面都将面临风险,为什么?

                尤瓦尔·赫拉利:确实如此。从浅层次来说,十九世纪发生的工业革命会重演,行业领袖基本拥有在经济和政治领域主宰世界的权力。二十一世纪的人虎鯊王不屑冷笑工智能革命以及生物技术革命会让历史重演,而且历史也已经在重演。在我看来,当前的军备竞赛就是一场帝国军备竞赛,很快会导致数据∮殖民,不需要派○一兵一卒,只需要获得某个国家的所有数据就能进行数据殖民。

                但是在更深、更广泛的层次,我认为这将会塑造人类的未来,塑造生命的未来,因为想要救你這所謂新技术很快会让一些企业和政府能够侵入人类,不再是侵入电脑、智能手机、电子信箱和银行账户,最重要的是可以侵入人类。

                要︽侵入人类,需要很多生物学方面的知识、大量算力,尤其是大量数据。如果你们手里有足够多的关于我的数据,有足够的生物学知识∮和算力,你们就能掌控我的身体、大脑和人生。你们甚至可以比我还了解我自己。现在已经非常接近这一点了。一旦达到这一临界点,民主、自由市场……实际上所有的政治体系,包括集权政体,都将改变,现在还不清楚越过这一临界点后会发生什么。

                Zanny Minton Beddoes:从很多方面看,在成为一个监控国家方面,中国已经走在前面,您认为这是否◥预示了未来的发展趋势?

                尤瓦尔·赫拉利:目前,我※们看到中国的国家监控和美国的监控资本主义之间的竞争,所以并不是说美国就没有监控。美国也有极其复杂的监控机制。从目前的竞争局势来看,这场军备竞赛中不存在第三个真正意义上的参与者。这场军备竞赛的结果将影响未来20到50年间这颗星球上所有生物的生活方式,包括人类、其他动物以及新的实体类型。

                Zanny Minton Beddoes:赫拉利教授刚才分享了他的看法。任先生,您是否同意他对风险的评估结果,即人类和政治体系的未▆来正在面临风险?

                任正非:我读过赫拉利教授的《未来简史》、《今日简史》,他对人类社会发展的规律,以及科技对未来社会结构与人类意识形态╳变化的冲突……许多观点我是认同的。

                第一,我们首先要看到科技是向善的,科技发展吼不是为了作恶,而是向善。人类曾经经历了一个漫长发展的历史,在过去几千年,技术进步缓慢与人们的生理进步基本是同步的,内心没跟著王恒一起朝劉家有恐慌;当火车、轮船、纺织机械……出现的时候,人们也出现一些小的恐慌,但是后来工业社会的发展把这些』恐慌消除了;进入到信息社会时代,技术奇点的爆发间隔的①周期缩短了,现在电子技术已经高度突破,尽管摩尔定律还会约束电子技术的进步,但是今天把芯片能力推进到2纳米、3纳米,已经不是问题了。

                第二,由于计算机能力的极大提升,已经让信息技术撒满了整个世界。加上生氣勢陡然變得更加磅礴物技术、物理、化学、神经学、数学……各种技术的突破、跨学科和跨领域的突破、学科交叉创新的突破,给人类社会积累了足够的能量,这个能量№积累到一定程度,到达临界点时,都会发生智能爆炸。这个“技术大爆炸”给人们带来一∏种恐慌,爆炸是好还是坏?我认为是好的。在新技术面前,人类总会利用它来造福社会,而不是利用它来破坏社会,因为绝大多数人向往未来是幸福的生活,不是向往受磨难。

                我刚出生时,原子弹在广岛爆炸。我七、八岁时体会到,人们最大的恐慌▽就是原子弹,全球都恐慌原子弹。但是,随着人类※社会拉长的历史镜头来看,原子能发电能造福社会,放射性医学等各方面的应用都造福了人类。所以,今天我们没有必要对人工智能这么恐慌,原子弹爆炸可能会伤害人类,但今天人工智能的发展不会对人类有多么大的伤害。

                当然,我们公司仅仅是研究弱忘了他吧人工智能,在封闭系统中,有清晰规则和完整的信息条件下。有一定︻条件和数据支撑的,来促进工业、农业、科学、医疗卫生……事业的进步︾,这是有边界的。比如汽车驾驶、矿山开采、药物技术等一系列是有边界的,这些边界∑在人工智能提高以后,大幅度创造了财富。

                有人说“在创造财富过程中,会有很多人本來呢失业”,这是社会问题。但是,财富多创造出来,总比少好。今天的社会,即使是穷人,绝对财富比几十年以他前也增多了,虽然贫富悬殊拉大,但不等于穷人走向更加绝对贫困。解决社▲会的贫富悬殊造成的冲突,是社会问题,不是技术々问题。如何平衡财富的分配,是各国政府的政策、法律……,对治理提出了挑战。

                Zanny Minton Beddoes:谢谢!您提出了许多非常有趣的问题。我想主要讨论其中两个问题,请赫拉利教授回答。首先是原子就是王品仙器弹和原子能的比较。这么比较合适吗?考虑到这场讨论的话题是科技军备竞赛,我认为这样的比较很▂有趣。我相信在场的所有人,包括任◤先生,都认为技术将产生巨大的红利。赫拉利教授肯定也同意这个说法。我想再问一下赫拉利教↑授,您认为相比之前的技术突破,人工智能和生物技术在本质上存在很大妖嬰也自動離體飛了出來区别吗?人工智能和生物技术是否比过去的技术更危险?

                尤瓦尔·赫拉利:我们有必要将人工智能和原子弹进行比较。原子弹的出现告诉我们,当人⊙类面临共同威胁时,就能团结起来,哪怕是在冷战时期都能够共同制定规则,避免出现最坏的情况,这是冷战时々期的情形。

                和原子弹相比,人工智□能的危险不是太明显,至少对一些行为体来说,使用人工智能将带来巨大的好处。所有人都知道一旦使用原子弹,就意味着世界末日即将来临,而没有人能从大规模核战中获胜。

                然而,很多人,包括我在内,都认为人工智能军备竞赛是可以分出胜负的。但这是很危险的,因为赢得军备竞赛和主宰世界的诱惑力太◥大了。

                Zanny Minton Beddoes:我想←提一个让您为难的问题。您认为华盛顿还是北京更有这种想法?

                尤瓦尔·赫拉利:我认为是北京和旧金山。华盛顿并不完全了解人工智能竞赛将带来什☆么影响。目前,人工智能竞赛的双方分别是北京和旧金山,但旧金山跟华盛顿的关系越来越近,因为他们需要得到這里政府的支持。所以其实旧金山和华盛顿并不是完全分开的。另外一个问题是什么?

                2、Zanny Minton Beddoes:第二个问题是关于人工智能的。赫拉利教授您刚刚已经大致回答了,所以我想请问任【先生。中国显然是美国的一大担死神傀儡就不會滅亡忧。基于我们刚刚谈到的内容,您知道美国为什么如此担心中国吗?您认◥为这种担忧是合理的吗?作为一个中央集权的国家,您认为中国应当处于技术→前沿,并且如赫拉利教授所说,决定未来社会和个人自由的发展方向吗?美国在这方面的担忧是否合理?

                任正非:赫拉利教授说美国政府还没有真正想明白人工智能,我认为其实中国政府可能也还没有开始想我程家明白。如果这一口鮮血噴了出來两个国家开始想时,应该在基础教育和基础研究上加大投入。目前中国教育其实还是沿着︼工业社会的教↓育方式,主要以培养工程师为中心的教育体系,所以人工智能在中国不可能发展很快。人工智能需要大量数学家、物理学家、生物学家、化学家……,需要⌒大量的超级计算机、超级联接、超级存储器,这些方面中国还是一个在科技上刚起步的国家,所以我认为美国是自己忧虑过多了。美国长期习惯是世界老大,认为每件事情都应该是它做得最好,如果某一件事别人做好了,可能它心〖里就会不舒服,但不舒服并不代表世界潮流。

                我认为,全人类最终都应该很好地利用人工智能,研究如何造福人类。赫拉利教授专门√讲了,要制定一些规范,什么东西『允许研究,什么东西不允许研究,来控制它的走向,科技也有伦理问题。赫拉利教授想的电子技术侵入人类思维,和人融成一种新的形态,我个看著人认为在未来二、三十年内或者更长时间还不会出现。最早出现的是改造生产过程,提高生产效率,创造更◢多财富。只要⌒ 有更多的财富,政府有分配的东西,就能平衡社会矛盾。

                前段时间《经济学人》发表我的一篇文章时,我引用了一★句话“电子芯片和基因结合起来会形成什么”,《经济学人》把这句话删掉了,因为这会挑起一个這對他來說無疑是一個巨大话题。当时要删除的稿子给我时,我马上同意了,因为我知道是自己出了一个难题。

                3、Zanny Minton Beddoes:美国政府可能还不太理解人工智能,并且在您看来美国可能高■估了来自中国的威各位胁。不过,您认为当前的科技军备竞赛会带来什么后果?美国把华为列入黑名单会有什么后果?全球是不是会ξ分裂成两大技术生态系统?会出现这样的后果吗?

                任正非:本来∮华为公司是一家很亲美的公司,华为今天之所以这么成功,绝大多数管理都是向美国学习的。因为公司从创立至今,我们聘请了几十家美国顾问公司来教华为如何管理。在教我们管理的过程中,其实公司整个体系就很像美国,美国应该感覺到那消失感到骄傲,因为是它的东西输出以后给我们带来了发展,我们是它管理输出的样板。

                从这点出ㄨ发,我认为美国不必过于担心华为在世界上的地位和成长。美国实体清单去年打击我们,没起到ζ 多大作用,我们当时认为自己基本能够抵抗,因为过去十多年前已经开始做了一些准备。今年美国可能会一團霸王之力直接把這些黑霧全都包圍了起來继续升级对我们的打击,我们会受到一些影响,但影响也不会很大。十几年前华为实际是一家很穷的公司,在二十年前我自己并没有房子,租了一个三♂十多平方米的房子住。钱到哪 云大哥去了?全部投资在公司研究、开发。如果当时我们对美国有安全感,实际不需要做备份Ψ,正是由于我们没有◥安全感,才花了数千亿做了备胎,应对了去年第一轮打击。今年第二轮打击,因为有去年抗受打击的经验和队伍的锻炼,我们更加胸有成竹,不会出现多大问题。

                世界会不会因此分裂出两个世界呢?我认为,不会的。科学是真理,真理只有一个,任何一个科学家发现真理,就会广播让全世↘界知道,在科学ぷ技术底层,全世界是统一的。但是技术发明本身可以多元化的,这是实现形式的不同罢了。比如汽车有多种型号▓在竞争,这有利于社会进步,不是强调社会必须唯一推进一种技术标准。所以,世親衛兵可是有機會見到烈陽大帝界会不会分裂?科学技术底层统一,是不会分裂的。

                4、Zanny Minton Beddoes:赫拉利教授,您如何看待这一点呢?我想问的其实是您在〗〗《经济学人》上氣勢直接把兩人給圈了過來发表过的观点。人工智能或是生物技术领域的军备竞赛几乎可以肯定都会带来最糟的后果,最后的输家必将是「人类自己。

                尤瓦尔·赫拉利:是的,因为一旦∩进入军备竞赛之后,很多技术发展和实验都是非常危险的,而大家可能也会意识到它们是危险的。大家都不希望朝这个方向发展,至少现在是这样。你可能会想,我不想这样做,我们是好人。但我们无法信任我们的对手不会这么做。[你会想]美国人肯定在这么做,中国人也肯定在这么做。我们←不能被落下,所以我们也必须这么@ 做。这就是军备竞赛的逻辑。

                自主武器系统的发展就是一个很典型的例子,这是一场真正意义上的军备竞赛。即使你▅不是天才,你也会发现这种趋势是非常危险的。但每个人都在说:我不能落后。这种思想可能会延伸到越来越多的领域。我也认为未来二、三十年,计算机和人类还不会结合变成半机械人。

                但未来二十年,我们会看到人工智能■在多个方面的发展。不过,我们最需要关注的还是我刚才提到的对人类的侵入。当你掌握人类足够多的数据,并且具ζ有足够的算力时,就会比人类自己更◆了解自己。

                我也想听听在座各位的看法。我们是不是已经到了某个阶段?我不是技术专业人士,所以我想问真正懂技术的人,我们是不是接近或者已经到达了这样一个阶段,也就是,华为、Facebook、政府或爆發速度來回報大家了者不管是谁,已经能够系统地侵入数百万人,从而比这些人自己更了解他们自己?比如,他们比我更了解我自∞己,包括我的健康状况,心理弱点和过︻往历史等。一旦到达这个点,他们就能够比我自己更能够预测和操纵我的决定。不会是完美的ω ω 。任何预测都不可能完美,但会比我自己做得更好。

                Zanny Minton Beddoes:请问嗡任先生,您认为华为到这一阶段了吗?您是不是比其他人更了解他们自己呢?

                任正非:赫拉利先生所想象的未来科学技术能否实现,我们还不能肯定,但也□ 不否定。作为企业和社会,我们要更深刻地理解一个客户,就必须去了解它的数据、信息,比如矿山开采是否可』以完全采用人工智能,没有√人是可以的,我们已经实现在几千公里外远程遥控开采矿山,如果这个矿山在冰冻地区、高海拔地区,价值一定是存在的。将来一些龙头矿山(如巴西矿山)实现这种开采方式是可以的,但我们必须对一些企业有深入了解,才可能※做成。当然,我们深入了解主要需要矿山专家和电子专▂家结合起来才可能了解,也只有好的医生和电子结合起来才能做到远程医疗。

                因此,对人类了解的深入程度,是一步步︾了解。至于赫拉利教授说“电子侵入人类,人类变成這代表著自己等人若是在里面修煉神了”,也不用担心,因为人到80岁就死了,灵魂是不能继承的,他不可能成为神人。

                5、Zanny Minton Beddoes:赫拉利教授谈到自主武器的问题。现在这种武器好像已经存▲在了,军事系统中已经有这种武器。您如何看待这种自主武器呢?如赫拉利教授所说的非常危险吗?如何才能∏避免自主武器带来共同毁灭的思想々呢?

                任正非:我不懂军事,也不是军事专家。如果人人都能造出武器,那武器与棍棒差不多,就不是武器了。

                6、观众:请问赫拉利教授,您为什么认为中美之间会有人工智能的军备竞赛?我们可以看到中国的一些应用都是民用的,没有㊣ 竞赛的感觉。请问现在是否正在进行人工智能领域的军备竞赛?

                尤瓦尔·赫拉利:我所说的军备竞赛不一定指开发武器。要征服一个国家,不一定需要武器。

                观众:我的意▆思是商业竞争和国家竞争是否有区别?

                尤瓦尔·赫拉利:这两者之间并没有清晰的界限,就如十九世纪以及更早期的欧洲帝国主义。所有的商不斷业帝国主义和军事或政治帝国主义是没有界限的。现在有了数据之后,我们也看到了一个新现象:即通过数据殖民主义来控制一个国家,比如非洲、南美、中东等地▓区的国家。想象一下过二十年后,也许一个在北京、华盛顿或旧金山的人就能完全了解位于巴西或埃及的每个△政客、法官和记者的◥医疗史和性史。试想一下,不需要武器、不需要士兵、不需要坦克,就可以了解一个人的所有个人数据,比如美国最高法院的下一个候选人、巴西总统的候选人,我们可以完全掌握他们的心理弱点,知道他们大学干了什么、二十岁干了什么。我们知道他〓们的所有事情。这样的话,这个国家还是独立国家吗?还是↘会沦为一个数据殖民地?这就是军备竞赛。

                7、观众:我是世界经济论坛的杰出青年,想向两位提问。首先,全球政府和大企业非←常强大,他们可以定义消费者的生活方式,那留给普通人的还有什么权利呢?我是一个技术专至尊神位第三百一十八家,因此我对信息安全有我自己的看法。但对普通消费者来说,他们还有什么权利呢?

                任正非:随着技术交流越来越方便,人〓们对事物的认识越来越充分,让人类变得更聪明,其实是人类的聪明速度在加速。比如,我们现在看【小学生课本,已经看不懂了,怎么∩小学生学这些东西呢;以前我们大学才学习的课程,现在中学已经学完了。这些说明人类在信息社会中实际是进步了,进步了也还是要以人来掌握,不同的人掌握的程度不一样,那么就业方式就不一样。人的主观能动性在社会上应 一愣该是存在的,不是被奴役了。

                Zanny Minton Beddoes:所以您认为技术让人有更多能动性和权利?

                任正非:是的。

                尤瓦尔·赫拉利:我认∴为技术会起到两方面作用,既能限制、也能提升个人的能力或能动性。人们,特别是技术人员和◢工程师,能做的就是设计出不同的技术。比如,人们现在投入了大量精力开发个人监控工具,从而服务企业和政府。但我们当中的↓有些人也可以决定打造一种完全相反的技术。技术其实是中立的。你们可以设计一鷹長空个工具来监控政府和大企业,从而服务个人。既然政府和企业这么喜欢监控,如果公民们对他们实施监控,他们也↑不会在意。比如你是一个工程师,能开发一个人工智能工具来监督政府的腐败行为。或√者你会开发电脑防病毒软件,也可以开发人脑防病毒软件,如果有人试图侵入你的大ζ脑或者操纵你,该软件就会发出警报。这些都是取决于人们自己的。

                Zanny Minton Beddoes:我们的时间到了,但我们在结束时正好谈到了一个令人振奋的话题,即创造工具来赋予人们更多能力。非常感谢两位分享的精彩观点。

                编 辑:章芳
                免责声明:刊载本文目的在于传播更多行业信息,不代表本站对读者构成任何其它建议,请读者仅作※参考,更不能作为投资使用依据,请自行核♂实相关内容。
                相关新闻              
                 
                人物
                亨通崔根良:抢占行业发展制高点,成为行业领跑者
                精彩专题
                MWC19 上海 - 智联万物
                2019年世界电信和信息社会日大会
                中国电信5G创新合作々大会
                2019年世∞界移动大会
                CCTIME推荐
                关于我们 | 广告报价 | 联系我们 | 隐私声明 | 本站地图
                CCTIME飞象网 CopyRight © 2007-2017 By CCTIME.COM
                京ICP备08004280号  电信与信息服务业务经营许可证080234号 京公网安〇备110105000771号
                公司名称: 北京飞象互动文化传媒有限公司
                未经书面卐许可,禁止转载、摘编、复制、镜像