Broadchain

Twitter Space回顾 | AI老炮儿深挖AGI前世今生

Web3 News 2023-05-09 19:07 2469

AI Governnance的议题只是多年以来,AI技术广泛被种草的一个延伸,并不是一个新的议题。

北京时间2023年5月7日上午11点,GPT DAO在Twitter 上举办了主题为【AI老炮儿深挖AGI前世今生】的Twitter Space,本次AMA活动将邀请AI领域的资深专家,深度剖析AGI技术的前世今生,探讨人工智能对我们的生活和未来的影响。

此外,我们还与GPT DAO、链得得、非小号、博链财经等媒体组成的观察团一起,探讨了人工智能技术对未来的影响和其所面临的挑战等相关问题。

image.png

Twitter Space成员介绍:

嘉宾:

杨宁:天使投资人,乐搏资本创始合伙人,中国天使联合会创始会长

陈葵:前思杰全球副总裁,前微软亚太研发集团高管,前思科及冠群高管

白强:GPT DAO核心成员 ,从Web1到Web3漫游世界的创业者投资人,中国科大数学/美国普渡大学数理统计 ,科大讯飞前联合负责人

Host:

Zoie:GPT DAO核心成员,新加坡Sub DAO负责人,LK Ventures Venture Partner

媒体观察团:

蔡继军(Co-Host):核心成员,Fast Global联创

道尔吉:链得得ChainDD华东区执行副主编

孙岩:非小号执行主编

王晖:博链财经创始人,1783DAO发起人

支持媒体:

钛媒体,链得得,非小号,Foresight News,博链财经

我们梳理了本场 AMA 精华内容,以飨读者。

Q1:近日谷歌 AI研究院院长、神经网络领域的先驱杰弗里·辛顿(Geoffrey Hinton)与5月1日突然宣布退休。据悉他离职的原因是他对生成式AI感到担忧,他担忧人工智能系统正在变得越来越危险,如果没有某种监管,这场竞争将不会停止,人工智能发展的速度会远超我们的想象,并最终走向失控。您如何看待这个问题?

杨宁:

从哲学的角度来看,人性本善,人类的核心价值观和内在的人性使我们得以繁衍成为地球上最发达的族群之一。机器人和人工智能的学习语料和知识都是由人类赋予的,因此我相信人工智能是从善良的角度开始发展的。只要大公司、主流作者、人工智能领域的专家都是善良的人,那么教出来的人工智能也会是善良的,就像我们的孩子一样,他们会遵循我们教给他们的好的东西。因此,我认为人工智能不会失控,也不需要过多的监管和伦理规范。

主持人Zoie:

人性本善,AI技术的神经网络没办法完全被清晰地逻辑化分析的前提下,关于如何通过技术手段保证AI机器人不作恶,以及监管将会如何应对AI的发展,其他嘉宾还有其他补充的吗?

白强:

首先Elon Mask散布的恐惧论是有私心的,以及拜登其实是作为一种政治资本,其他很多高举AI伦理与治理的论调者也是某种意义在保护自己的利益。很多年前我们在科大讯飞做的AI语音工具,AI Governnance的议题只是多年以来,AI技术广泛被种草的一个延伸,并不是一个新的议题。我们人都没办法完全理解自己的大脑如何运作的,那么AI的神经网络就更加没办法搞懂,导致AI会否作恶这个议题会无法被证伪。从监管的层面来说,往往监管方往往是落后于科学创新领域的奇才的,所以监管基本上就是“一管则死,不管则乱”的局面。

杨宁:

如果要我作为监管方去监管的话,我也会觉得这是一个非常大的挑战而且不从下手。是从技术代码层面去管吗,还是从应用的层面去管?我感觉这个Anti-AI有点像的情绪有点像之前美国的Anti-Vaccination(反对疫苗)的情绪一样。既然我们人都没办法完全理解人的大脑是如何运作的,我们也没办法判断人脑在什么场景下会变成疯子、神经病,所以AI也没必要被无端恐惧。我想逐渐人们习惯人工智能为人类带来的便利之后,大家就会更加接受AI,并且能接受人类与AI共存。

陈葵:

目前这个趋势已经不可避免地发生了。我认为重要的是要有危机意识,因为随着越来越多的AI能力涌现,什么时候它们会失去可控性,甚至在没有警告的情况下对人类产生危险。在解决监管问题之前,我们需要先接受和了解AI,并看到它带来的机会。因此,我建议我们应该集中精力去探讨AI能给我们带来哪些机会,以及在未来我们可以如何利用这些机会去改善自己的生活。

Q2:Midjourney 是目前最受欢迎的这个 AIGC 的图像工具,和其它的竞品相比,它的技术优势是什么?AIGC 图像工具未来的前景又是如何的?

白强:

目前的AI图像生成技术虽然各有不同,Midjourney也好,其他的AIGC工具也罢,能否真正的成功取决于如何利用这些工具创造出引人入胜的内容。大家可以参考皮克斯动画,皮克斯动画始于乔治·卢卡斯创立的工作室,后被史蒂夫·乔布斯收购。乔布斯最初将公司定位为硬件公司,但失败后转向软件。在这期间,约翰·拉塞特加入皮克斯,凭借其出色的内容创作能力,制作出了一部获得奥斯卡奖的计算机动画短片。这个成就使得乔布斯重新审视公司的方向,最终与迪士尼合作制作了《玩具总动员》等动画电影,皮克斯由此崛起成为全球知名的动画制作公司。

正如皮克斯最终通过约翰·拉塞特的卓越内容创作,从一家陷入困境的硬件和软件公司转型为全球领先的动画制作公司一样,任何一个现在正在做AI生成内容的团队或工具都需要找到这样的突破口。如果一个公司能成为AI时代的皮克斯,那么它就会取得成功,而单纯的工具公司最终可能会被取代。

主持人Zoie:Midjourney 这个团队成员只有 11 个人,单年营收就已经超过一个亿美金后社区用户数是达到了 1500 万。那么随着 AI 的发展好,然后我特别想采访一下陈葵,您在大的科技巨头任职过,您觉得随着 AI 的发展,未来公司以及人力资源的组织形式会有什么样的变化和趋势?

陈葵:

我认为企业和人才的变化以及产业的变迁是当前的重要话题。在阐述它之前,我先来做个铺垫,简单介绍一下陆奇在演讲中提到的三位一体结构演化模式,这个模式涵盖了信息系统、模型系统和行动系统。这三个系统在人工智能发展过程中相互依赖,共同促进技术进步。

1. 信息系统:信息系统是数据的基础设施,它负责收集、存储和处理大量的数据。随着互联网和物联网的普及,信息系统已经变得越来越庞大和复杂。这些系统为机器学习和人工智能算法提供了丰富的数据来源,从而使它们能够从数据中学习并提炼出有价值的信息。

2. 模型系统:模型系统是基于数据的分析和预测工具,如机器学习算法和人工智能模型。这些系统利用信息系统提供的数据,通过训练和优化,学习数据中的模式和规律。随着计算能力的提高和算法的发展,模型系统越来越能够处理复杂的问题,例如图像识别、自然语言处理和推荐系统等。

3. 行动系统:行动系统是指将模型系统的预测和分析结果转化为实际行动的部分。这些系统通常包括执行任务的硬件设备,如机器人、无人驾驶汽车和智能家居设备等。行动系统负责将模型系统的输出转化为有用的操作,从而实现人工智能的实际应用。

三位一体结构演化模式强调了信息系统、模型系统和行动系统之间的相互关联。这种模式揭示了人工智能发展的核心驱动力,以及这些系统在实现技术创新和应用中的关键作用。通过综合利用这三个系统,我们可以更好地理解和应对当今世界的复杂问题。

目前我们正处在信息系统阶段,随着模型系统的推理和规划能力,我们将与环境交互以实现人类的目标。在这个数字化时代,人类获取信息、表达信息并采取行动以满足需求的路径与数字化系统相似。深度学习AI和云计算技术已经消除了大型企业与中小企业之间的成本和技术差距,剩下的竞争焦点是人才、创意和执行力。此外,大型企业和中小企业的合作也对市场有着积极影响。因此,我预测,云计算和大型AI模型将成为无处不在的服务,为创新型小公司提供巨大的市场机会。这将促使更多的年轻人创立公司,关注开源技术在市场中的落地应用。我对未来还是比较乐观的,人类和AI会有一个很长的共存阶段。在这个阶段,我们需要学会与AI交流和协同工作。未来,许多专业可能都将与AI相关,虽然许多固定任务的职位可能会消失,但也会催生出新的职业。总的来说,我对未来产业变革和职业发展持积极乐观的态度。

Q3:非常感谢今天各位嘉宾的分享,我们今天一开始讲到了AI监管。这里引用一下索罗斯的一句话,Innovation(创新)永远是跑在Regulation(监管)之前,无论是之前带来金融海啸的金融创新,还是Web 3.0创新,还是AI创新。人工智能的一个快速发展,越来越多的人担心自己的工作会被 AI 所取代,刚刚我们也有聊到Midjourney11个人的团队以及新的公司组织形式。我们今天的主题是 AGI的前世今生,让我们一起畅聊一下,我们所经历的以及所畅想的AI的前世今生。

杨宁:

自从20世纪中叶艾伦·图灵提出了图灵测试,奠定了计算机科学的基础,人们开始认识到AI与传统计算机的巨大差别。AI的发展经历了不同的阶段,其中包括神经网络、深度学习和增强学习等方法的不断演变。神经网络模仿人脑的神经结构,处理和学习数据的能力得到了显著的提升。这一方法在图像识别、语音识别和自然语言处理等领域取得了重要突破。

随后,深度学习作为神经网络的一个分支,利用更深层次的神经网络来处理更复杂数字信息,成为AI研究领域的热门话题。增强学习则是一种基于试错的学习方法,让AI在环境中与其他智能体互动并学习如何做出最佳决策。这一方法在游戏领域取得了惊人的成绩,如DeepMind的AlphaGo击败围棋世界冠军,显示出了AI在决策和策略方面的巨大潜力。近年来,AGI成为了研究重点。它在创造一种具有人类智能水平的机器,能够在各种情况下与人类展开自然互动。同时,大型预训练语言模型如OpenAI的GPT系列取得了显著进展,提升了机器理解自然语言的能力,为实现AI与人类更深度的交流奠定了基础。在我看来,人类和AI可以共存,互相促进。AI的应用范围已经覆盖到医疗、教育、金融、交通等诸多领域,极大地提高了生产效率和人们的生活质量。

我们人类的智力的开发远远没有达到我们的预期,也就是说我们现在大脑的使用比例还是太低,如果AI 能够激发我们人类的大脑潜能,我们也能够跟 AI 一起进步,相辅相成。在未来,我们人类会变得更聪明、更智慧,能够和更加强大的 AI 匹配。

白强:

我持有相对悲观的观点,互联网和人工智能的发展并未使世界变得更好。从互联网的角度来看,信息的畅通并未阻止强势力量的操控,反而加剧了社会的撕裂。AGI也会出现同样的问题,尽管技术进步让一部分人变得更加优秀,但绝大多数人却越来越愚蠢和懒惰。我认为这是因为在一个高度发达的社会中,人们不再需要努力,自然就变得愚蠢。这里边其实是有很多更深层次的问题,随着AGI的到来,我们是不是更加脆弱了?我想这是值得我们思考的一个问题。

陈葵:

我认为在选择乐观和悲观之间,我更倾向于站在中间。当然,在我们身处的行业中,我认为我们不应该忽视历史,毕竟过去的经验可以让我们更好地面对现在和未来的挑战。既然要谈论前世今生,那我们就回顾一下阿西莫夫提出的机器人三定律:第一,机器人不得伤害人类或使人类受到伤害;第二,除非违背第一定律,否则机器人必须服从人类的命令;第三,除非违背前两定律,机器人必须保护自己。这是一个非常理想化的设想。它对于我们研究人工智能的发展道路有着重要的意义。

对于AGI的出现,我认为它将对人类产生巨大影响,好坏未知。但是,我很欣慰地看到OpenAI提出了三个原则。

1. 广泛的利益:目标是使AGI对人类产生积极的影响,并确保AGI的发展不损害人类或集中权力。

2. 长期安全:如果在AGI研究中,其他项目比OpenAI更有希望成功实现安全的AGI,那么OpenAI将与该项目合作,而不是竞争。

3. 技术领导力:为了在安全和社会影响方面产生实质性影响,OpenAI将继续在领域内取得重要突破,以确保其在AGI研究和应用方面的影响力。

这些原则可以让人类在宇宙上最大程度地繁荣发展,同时也可以确保AGI的好处能够得到广泛的分享,帮助我们成功地应对风险。虽然未来充满了不确定性,但我相信我们应该抱有希望,积极面对变化,并不断寻找机会。最后,我们应该尽情享受生活中的美好瞬间,直到我们最终消亡之前做最后的狂欢。

媒体观察团互动

非小号执行主编孙岩:

我对于AI并不持有特别乐观或悲观的态度,而是像大多数人一样持有比较盲目或无知的感觉。我尝试过一些智能平台,比如ChatGPT和Midjourney,但是并没有感受到它们带来的很大帮助,也不会在一些媒体平台上使用它们,因为这样会失去我的个人独特性。我觉得自己并没有很强烈的感受到人工智能或AGI带来的明显帮助。就像电影太空漫游2001的例子一样,当年的描述并没有给我现在的感知带来很大的震撼,因为现实可能更加骨感一些,没有想象中那么神奇或高科技。因此,我认为自己目前既不悲观也不乐观,更像是芸芸众生的感觉。

博链财经和1783DAO创始人王晖:

听了几位嘉宾的分享,我有几个问题想跟杨总探讨,从东方文化,比如说人之初、性本善,以这个来推理 AI 也是这样, AI 也是好的,但目前 AI 的发展其实是在被西方主流的巨头垄断和主导,在西方文化里到底有没有人之初、性本善这样的文化传承,从西方文化的角度看,AI 和人类的一个未来将会是怎么样的?

杨宁:

你这个问题问得非常好。人类具有共性和人性的一致性,人类的友爱、合作和共情心等品质不论来自何种文化、民族或方式都是相似的。因此,我反对三体提出的黑暗森林概念,人类并不是禽兽,而是有能力形成团队和组织结构的人性存在。训练机器学习模型时,高质量的数据是至关重要的,而数据的质量和标签的准确性决定了模型的训练效果。此外,AI的开发者对其影响很大,因为机器的人性来源于人类。

博链财经和1783DAO创始人王晖:

我还有一个问题想和白强总讨论,您说很多工具类的产品可能会死掉,那是否意味着ChatGPT 也会死掉?如果是这样的话,在AI 领域,到底什么样的项目才能长期存在?

白强:

我认为OpenAI的基础是它的大语言模型,而不仅仅是ChatGPT这样的产品。即使ChatGPT这样的工具类产品消失,OpenAI依然拥有庞大的数据作为它的王牌。在众多公司中脱颖而出的关键是能否成功地转型成为新时代AGI时代的内容公司。就像皮克斯这样的成功案例,它最终发展成为了一家制作优质内容的公司,赢得了奥斯卡奖项。我们现在应该从AI的角度来重新定义新的模型和产品,而不是继续沿用旧有的思维。我们应该思考如何在这个新时代中定义各个方面,并在这里寻找创业和投资的机会。我相信在这样的思考下,未来会出现更多的机会。

链得得ChainDD华东区执行副主编道尔吉:

我有一个问题,图灵测试是不是应该成为 AGI 的一个测试标准,或者说AGI 应该以什么样的测试标准去把控?

杨宁:

我认为可以从测试机器的智慧程度和测试机器的心理程度这两个方向去把控。对于测试机器的智慧程度,传统的图灵测试已经过时,需要寻找新的测试方式,比如智商测试,来计算机器智能水平的高低。但是这种测试集需要避免开发人员为了应试而进行过度训练的情况。对于测试机器的心理程度,我认为应该开发类似人类精神测试的机器测试集,以更好地掌握机器的心理状态。这两个方向都非常重要且严肃,是一些大学和科研机构应该朝这个方向去研究的方向。

链得得ChainDD华东区执行副主编道尔吉:

感谢杨总的解答,我还有一个问题,就是AI 伦理方面问题,对于机器来说,我们把将一部分社会分工和社会责任交给了AI 去处理的时候,如何把伦理的问题处理好?例如,在自动驾驶领域,AI的进步可以为自动驾驶时代提供新方向,并提供一些新的困难指令和多模态数据指令。问题在于如何在利用AI技术的同时,确保伦理问题的处理,这一块我们应该怎么去训练他们?

杨宁:

我认为你提到的问题不仅是伦理问题,更是一个法律问题。这主要涉及到确定算法和概率算法之间的区别。确定算法意味着在给定情况下,机器总是做出相同的选择。而基于AI的算法则是概率分布,意味着在相同的情况下,它可能会做出不同的选择。

正因如此,全球目前没有让AI做基于概率模型的决策系统。因为这涉及到法律责任问题。例如,在自动驾驶汽车发生事故时,究竟谁应承担责任?如果有驾驶员在车内,他将是法律责任人;如果车是空的,那么提供自动驾驶服务的公司应承担法律责任。

目前我们对AI的信任还不足以让它做出可能影响生死、造成巨大伤害的决策。在航空航天领域,民航局不会允许AI做出这类决策。他们只允许人做决策或使用自动化决策流程,即确定算法,这样在相同的输入下,总是得到相同的输出。因此,在我们目前所做的无人驾驶飞行器项目中,我们采用了确定算法,这是可以获得民航局批准的。

以上就是本次Twitter Space的精彩内容,希望大家能够从中获得一些有用的信息和启示。GPT DAO是最硬核的AGI信息分享社区,专注于深度和硬核信息分享,千万不能错过。

欢迎关注GPTDAO的推特,获取最新活动消息。

中文推特:@GPTDAOCN

英文推特:@GPTDAOGLOBAL 

声明:BroadChain Finance网站和App所发布的内容,均不构成任何投资建议。

Web3 News

Web3 News

5012 篇 作品
659.51W 总阅读量