您的位置首页  广州文化  教育

翻看了大佬们的言论我对AI的感觉只剩下这一点

翻看了大佬们的言论我对AI的感觉只剩下这一点

  不仅微软、谷歌等硅谷巨头在研究AI,国内如阿里、华为、腾讯等企业也相继发布了AI大模型,陆奇、王慧文、李开复、王小川等商业知名人物,也都纷纷亲自下场。

  但是,有那么多公司都在关注AI,有那么多人都在讨论AI;有人认为AI是新时代,有人认为AI需要暂停研发。到底谁说得对?我们到底应该如何看待AI?

  今天,我们集合了比尔·盖茨、巴菲特、马云等著名企业家,以及GPT之父伊利亚、AI权威人物吴恩达、杨立昆等人工智能行业专家对AI的看法和观点,帮助大家理解AI,找到新知,发掘机会,让你“一文看懂AI”。

  一切都开始于1950年的图灵测试。按照“人工智能之父”艾伦·图灵的定义:如果一台机器能够与人类展开对话(通过电传设备),而不能被辨别出其机器身份,那么称这台机器具有智能。

  接下来,是人工智能的黄金年代。1966年~1972年,第一台人工智能机器人Shakey、第一个聊天机器人ELIZA相继发布。

  20世纪70年代初,困于当时的计算机性能,人工智能遭遇了瓶颈。直到1997年,IBM“深蓝”超级计算机,击败了国际象棋世界冠军卡斯帕罗夫。人工智能的春天来了。

  2016年,Google人工智能AlphaGo,战胜围棋世界冠军李世石。人工智能像是被引燃了导火线,开始了新一轮爆发,国内诞生了“AI四小龙”:商汤、旷视、依图、云从。

  当我在2002 - 2003年刚开始的时候,学习看起来是一件只有人类能做到的事情,计算机完全办不到。于是从那时候起,我开始在这个领域做一些探索。

  那个时候,并行计算机还很小。但是希望在于,如果你弄明白学习和神经网络的工作原理,你就可以通过数据为小型并行计算机编写程序。它与大脑的工作原理是相似的。

  如果它不能完全理解,它也会通过提问来弄清楚。它会告诉你自己不知道,但同时它会说需要更多的信息。

  但在 GPT-4 上,这种情况已经不再发生,它解决数学问题的能力大大提高了,你可以认为,它真的进行了推导,很长的、复杂的推导,并且还转换了单位等等,这真的很酷。

  现阶段,GPT-4之类的技术已经拥有大量知识,可使人类黯然失色,推理方面没有那么好,但也能做到简单推理,按照这发展速度,我们能预计会进展得很快,需要感到担心。

  我认为,计算机模型运作方式与大脑不同。它们可以反向传播,而大脑不是这样。这项能力比人类大脑更厉害。

  我问AI,在我的房子里,房间有白色的、蓝色的和的,其中油漆一年后会褪成白色。那么,我想要两年后,所有房间变成白色。我应该怎么做?

  这尽管不是直观的解决方案,但它是正确的。令人印象深刻。AI目前能够做出合理的推理,智商大概是80到90(备注:正常人水平是90~110)。

  如果你在中国比亚迪的工厂,你会看到机器人到处都是。而且使用率非常之高,所以,未来机器人的使用,在全球会越来越多。

  这就像,人们当初发明,初衷是为了和平。但后来不受控制的事态发展,让其发明者爱因斯坦都懊悔不已。

  我们要用人工智能去解决问题,而不是被人工智能所控制,虽然人的体力、脑力比不过机器,但机器只有“芯”,而人有“心”。

  工业时代是知识驱动,知识的竞争;数字时代,是智慧驱动,是创造力和想象力的竞争,是领导力、担当力、责任的竞争,是独立思考的竞争。

  人在面对新情况时,不只是依靠以前方法和模型,而是能够想出新的思路。这种能力,和思维的锻炼是分不开的。

  所以,AI的运作思路,和人想出新办法的能力是完全相反的。人在这方面的能力,ChatGPT 没法替代。

  在这40年间,我有很多次担心和怀疑,觉得这辈子可能都见不到这样的了,但现在见到了,这是我终生最大的幸运。

  现在,我们有一个跨领域,结合全人类知识结晶的大模型。它吸收了人类几千年的智慧与经验,所以对很多问题对答如流。

  另外,GPT能让我们用人类语言和机器交流,不再是人类需要学习机器语言,所以在大众的普及、行业的渗透、生产力革新、创造价值等方面都会有很大的提升。

  就像在移动互联网时代一般,AI 2.0是一个巨大且全新的平台机会,每一个APP都会被重写,对于每个垂直领域的应用都是蕴含着巨大投资、创业机会和商业价值,这一次的价值会比移动互联网大10倍。

  AI 2.0时代,电商及广告将更为 AI 大数据驱动,能够做到实时测试和动态调整,甚至把几分钟前的社会热点融入广告内容,最大程度提高转化率。

  AI 可以根据大众的喜好定制电视和短视频内容,使其创作的内容更容易吸引大众的眼球,获得更好的收视率和口碑。

  未来的搜索引擎将由传统的检索模式,变成“提问一回答”的模式。下一代的对话式搜索引擎,将成为全球科技巨头角逐的“AI 2.0圣杯”。

  AI 2.0将大大降低游戏和元宇宙等虚拟世界的内容生成的成本,而 AI 多模态的想象力内容生成,也将成为元宇宙的中流砥柱。

  AI 能够快速精准分析患者的整体健康状况,吸纳所有数据、生物特征、体检、病史和个人模型预测,成为医生们的得力助手,推动“个性化医学” 的到来。

  你要做大模型,想好到底做什么,大模型真正是怎么回事,跟你的创业方向在哪个或哪几个维度有本质关系。蹭热是最不好的行为,会浪费机会。

  新范式有多个维度,有蛮大复杂性,该看到的论文要看。尤其现在发展实在太快,非确定性很大。在学习上花时间,强烈推荐。

  如果这一次变革对你所在的产业带来结构性影响,不进则退。你不往前走没退路的,今天的位置守不住。如果你所在的产业被直接影响到,你只能采取行动。

  首先讲创始人。今天创始人技术能力强,好像很牛、很重要,未来真的不重要。技术ChatGPT以后都能帮你做。

  你作为创始人,越来越重要、越来越值钱的是愿力和心力。愿力是对于未来的独到的判断和信念,坚持、有强的韧劲。

  培养人才的时候,一方面学习工具,思考和探索机会,长期适当时候培养自己的prompt engineer(提示工程师)。

  你要非常了解你的用户,满足他们的需求,考虑长期可持续的商业策略。在平台转换期间,这件事实际上可能变得更加重要。

  回想一下应用商店的推出,这可能是最近类似的例子。有很多公司,用非常轻量级的东西,构建了具有掠夺性机制的产品,但这并不是什么持久之计。他们经历了如流星般的兴衰。

  3月22日,生命未来研究所向全社会发布了一封《暂停大型人工智能研究》的公开信,提出:最近几个月,人工智能实验室陷入了一场失控的竞赛,他们没有办法理解、预测或可靠地控制自己创造的大模型。人类社会对其可能造成的影响也没有做好准备。

  公开信呼吁,所有 AI 实验室应立即暂停训练比 GPT-4更强大的 AI 模型,为期至少6个月。

  信中写道“只有在我们确信它们的效果是积极的,风险是可控的情况下,才应该开发强大的人工智能系统。”

  而且,“人工智能教父”杰弗里·辛顿(Geoffrey Hinton)、约书亚·本吉奥(Yoshua Bengio)、人工智能专家盖瑞·马库斯(Gary Marcus)和埃隆·马斯克,均签署了这封公开信。

  1.2018年图灵奖得主、Facebook首席人工智能科学家杨立昆:如果车都不存在,如何设计安全带?

  我们不应放缓知识和科学的进步。就产品而言,我支持监管产品,但我不认为监管研究和开发有什么意义,这反而会减少我们可以用来让技术更好、更安全的知识。

  就像第一批汽车,它们非常不安全,没有良好的刹车系统,也没有安全带,没有交通信号等等。而这些东西是逐步到位的,以使其更安全。

  航空业也是如此,最终你会有一个监管机构来确保这些产品是安全的,这就是它的运作方式。人工智能与之前的技术进步之间,没有本质上的差异。

  其实,人工智能离人类水平的智能还很远,否则我们就不会还没有 L5 级自动驾驶了。相比之下,青年人学习 20 小时就会开车。

  我们认为很难的下象棋、写作文等事情,对于机器十分简单。而擦桌子、洗碗这样的事,对于机器来说又很困难。

  当一项新技术投入使用时,我们需要做的是确保积极的影响最大化,消极的影响最小化,但并不一定要阻止它。

  虽然,如今的人工智能系统确实面临着为人们带来损害的风险,例如:偏见、公平性、过于集中的能力。这些都是客观存在的问题。

  但是,我们可以做出一些行动来应对这些问题。例如,做更多更安全的人工智能研究,提高科研资金的透明度、改善审计制度,投入更多资金用于人工智能基础研究。

  在实验室和国家试图建立先进技术、公司间充满商业竞争的环境中,要求人工智能实验室放慢速度,这是不切实际的。因为这本身创造了很多价值。

  在过去十年、甚至数月间,大量的人工智能创意被用于教育、医疗等行业。中止这样的进步,有害于创造这些对人类大有助益的工具。

  所以,着力「对人工智能的安全性及性能调整,并对齐人工智能与人类意图」,比全面暂停研发更加具有建设性。

  任何技术第一次出现时,都不是完美的。实际可行的做法,是以一种可以控制的方式,限制其危害,对其进行更好的监测,解决有害的用例。

  GPT-4之后的版本不是AGI,那么也许再之后的版本是。并且有许多公司正在尝试,它们的基本架构并不是超级保密的。

  在这个星球上,我们正在构建一个比我们更聪明的新物种。虽然目前看来还不太像是一个物种,但是其中的技术性细节问题,很快就能得到解决。

  人工智能的到来,可以像我们一样高效地完成所有的工作。可能不久之后,就会出现大大超越我们认知能力的超级智能。

  但是,大型语言模型却不能这么做。GPT-4的transformer架构,就像一条信息的单向通道,称为前馈神经网络。它的深度,决定了只能按照步骤做逻辑推理。

  GPT-4的推出,可能正是人类真正需要的警钟。它告诉人们,停止幻想,100年后的事情很可能不可控,难以预测。

  第一次是在1980年,一个图形用户界面出现在我眼前,这是现代操作系统的前身,包括Windows。

  例如,它们不一定擅长理解人类请求的上下文,导致一些奇怪的结果。当你要求AI编造一些虚构的事情时,它可以很好地完成。

  但是当你要求它给你旅行建议时,它可能会建议一些不存在的酒店。这是因为AI不足以了解你请求的上下文,以便知道它是否应该编造虚假酒店,还是只告诉你有空房的真实酒店。

  还有其他问题,例如AI因为难以理解抽象推理,而给出错误的数学问题答案。但这些都不是人工智能的根本局限性。

  例如,使用AI的人类可能会构成威胁。像大多数发明一样,人工智能可以用于善良的目的或恶意的目的。政府需要与部门合作,限制风险。

  还有,可能出现AI失控的情况。机器是否会认为人类是威胁,得出其利益与我们不同的结论,或者不再关心我们?

  首先,我们应该尝试平衡关于 AI 的不良影响的担忧。为了最大程度地利用好它,我们需要在抵御风险和将利益扩展到更多人之间取得平衡。

  通过可靠的资金和正确的政策,政府和慈善组织可以确保利用 AI 减少不平等。我们需要将世界上最好的 AI ,集中在解决最大问题上。

  世界需要确立规则,以使人工智能的任何不利因素远远超过其好处,并使每个人都能享受到这些好处,无论他们住在哪里或拥有多少钱。

  ChatGPT的火热,主要是“大模型”概念的出现。国内很多公司如腾讯、华为、阿里、360、科大讯飞等,都发布了自己的大模型。

  一个大模型系统到底好不好,首先要看它是不是能解决刚需、是不是真的有用,而不是一个简单的单点测试。

  科大讯飞现在的语言能理解能力相比ChatGPT还略有差距,但已超越国内同类产品。数理能力,一定程度代表了一个大模型的聪明程度。

  虽然目前大模型技术还有待攻克的缺陷,比如新知识难以及时更新、事实类问答容易“张冠李戴”,史实、传统典籍等容易“编造情节”等,但这些问题在今年会有明显的改进。

  一个叫大公司核战争——大公司的目标是造出来一个爱因斯坦,或者一个马斯克,所以他们会不断加码,核战争开始了,谁没有个自己独有的大模型,就要被淘汰。

  为什么是1000亿参数,没人说得清楚。可能在某一个专业领域500亿就可以。比如,我不需要爱因斯坦般的产品,只需要像博物馆讲解的产品,100亿参数都可以。

  未来,我们整个终端都会发生变化。没准微软明年就出款手机,这个手机没准就抛弃了过去所有的界面和App Store。

  我们感觉,这将比金山办公历史上经历的所有技术变革都更猛烈、更有颠覆性。作为软件公司,我们必须积极拥抱,否则一定会被淘汰掉。

  过去,软件行业常说「二八理论」,80% 的人只用了 20% 的功能。因为办公软件很复杂,用户需要努力学习才能使用它。

  但今天,大模型有思维链 CoT(Chain-of-Throught,用于逻辑思考) 的能力、Codex(编程语言预训练模型,可以帮程序员生成代码)的能力。

  比如,当你要分析华南区某一个商品的销售排名情况,你不用再去学习数据透视表,而是直接跟机器说需求,它就会自动帮你调用工具、展示结果。

  我们不再需要研究界面怎么布置、某些点线怎么摆放。我们只需要管好产品的底层功能、并将这些功能的 API(应用程序编程接口)做好,让 AI 能通过 API 调用它们、就能满足用户的各种需求。

  但今天你会发现,这个技术可以用多模态(指文本、图像、视频、音频等不同模态数据融合的技术,是大模型的核心技术之一)重写一遍。

  其实,这就是宏观叙事。任何事物的发生,都有一个最初本源和最终目的。历史,会向着最终目的,进行有规律的发展与变化。

  在人机融合时代,通过AI赋能,人类可从重复、繁重的体力劳动中解脱出来,提高自身工作效率和生活质量,更有时间与空间专注于自身所擅长的想象和创造领域。

  老子的《道德经》里说,万物负阴而抱阳,冲气以为和。而人类与AI,或许就会在相互的影响中,形成新的和谐体。

免责声明:本站所有信息均搜集自互联网,并不代表本站观点,本站不对其真实合法性负责。如有信息侵犯了您的权益,请告知,本站将立刻处理。联系QQ:1640731186
热网推荐更多>>