Gary Marcus提出了一种替代人工智能模型的方法
温哥华:
自ChatGPT震撼世界两年半以来,科学家兼作家加里•马库斯(Gary Marcus)仍然是生成式人工智能(generative artificial intelligence)的主要怀疑论者,与硅谷的人工智能忠实信徒形成了鲜明对比。
2023年,马库斯成为人工智能革命的重要人物。在华盛顿举行的参议院听证会上,他坐在OpenAI首席执行官萨姆·奥特曼(Sam Altman)旁边,两人都敦促政界人士认真对待这项技术,并考虑监管。
自那以后,情况发生了很大变化。奥特曼已经放弃了谨慎的呼吁,而是与日本的软银(SoftBank)和中东的基金合作,推动他的公司达到极高的估值,他试图让ChatGPT成为下一个划时代的科技巨头。
马库斯在加拿大温哥华举行的网络峰会间隙告诉法新社:“山姆再也不能从硅谷获得资金了”,他向国外寻求资金是一种“绝望”的表现。
马库斯的批评集中在一个基本信念上:生成式人工智能是一种预测技术,它能大量生产出看似与人类水平相当的内容,但它的缺陷太大,无法带来变革。
他认为,为这些功能提供动力的大型语言模型(llm)本质上是破碎的,永远不会实现硅谷的宏伟承诺。
他说:“我对人工智能目前的实践持怀疑态度。“我认为人工智能可能具有巨大的价值,但法学硕士并不适合。而且我认为,管理它的公司大多不是世界上最优秀的人。”
人们乐观地认为,人类即将实现超级智能或通用人工智能(AGI)技术,这种技术可能与人类的能力相当,甚至超过人类的能力。这种乐观情绪推动OpenAI的估值达到了3000亿美元,这对一家初创公司来说是前所未有的,埃隆·马斯克(Elon Musk)的xAI也在竞相追赶。
然而,尽管大肆宣传,实际收益仍然有限。
该技术主要擅长编码辅助和文本生成。人工智能创造的图像虽然经常很有趣,但主要是作为表情包或深度伪造,对社会或商业几乎没有明显的好处。
马库斯长期担任纽约大学教授,他支持一种完全不同的方法来构建人工智能——他认为这种方法实际上可能以目前的生成式人工智能永远无法实现的方式实现人类水平的智能。
“把所有的钱都投入法学硕士的一个后果是,任何可能更好的替代方法都会被淘汰,”他解释道,并指出法学硕士的狭隘视野。
“正确答案很重要”
相反,马库斯提倡神经符号人工智能,这是一种试图人工重建人类逻辑的方法,而不是简单地在庞大的数据集上训练计算机模型,就像ChatGPT和谷歌的Gemini或Anthropic的Claude等类似产品那样。
他驳斥了对生成式人工智能将淘汰白领工作的担忧,并引用了一个简单的现实:“在太多白领工作中,获得正确答案实际上很重要。”
这指出了人工智能最持久的问题:幻觉,这项技术有充分证据表明会产生听起来自信的错误。
即使是人工智能最坚定的支持者也承认,这一缺陷可能无法消除。
马库斯回忆起他在2023年与领英(LinkedIn)创始人、硅谷重量级人物里德•霍夫曼(Reid Hoffman)的一次生动对话:“他跟我打赌,幻觉会在三个月内消失,赌多少钱都可以。我给他10万美元,但他不愿意赌。”
展望未来,马库斯警告说,一旦投资者意识到生成式人工智能的局限性,后果就会更糟。像OpenAI这样的公司将不可避免地将他们最宝贵的资产——用户数据货币化。
“投了这么多钱的人会想要回报,我认为这会把他们引向监控,”他说。他指出了奥威尔式的社会风险。“他们拥有所有这些私人数据,所以他们可以把这些数据作为安慰奖出售。”
Marcus承认,生成式人工智能将在偶尔的错误无关紧要的领域找到有用的应用。
他说:“它们在自动完成编程、头脑风暴等方面非常有用。“但没有人会从中赚到很多钱,因为它们的运营成本很高,而且每个人都有同样的产品。”
自ChatGPT震撼世界两年半以来,科学家兼作家加里•马库斯(Gary Marcus)仍然是生成式人工智能(generative artificial intelligence)的主要怀疑论者,与硅谷的人工智能忠实信徒形成了鲜明对比。
2023年,马库斯成为人工智能革命的重要人物。在华盛顿举行的参议院听证会上,他坐在OpenAI首席执行官萨姆·奥特曼(Sam Altman)旁边,两人都敦促政界人士认真对待这项技术,并考虑监管。
自那以后,情况发生了很大变化。奥特曼已经放弃了谨慎的呼吁,而是与日本的软银(SoftBank)和中东的基金合作,推动他的公司达到极高的估值,他试图让ChatGPT成为下一个划时代的科技巨头。
马库斯在加拿大温哥华举行的网络峰会间隙告诉法新社:“山姆再也不能从硅谷获得资金了”,他向国外寻求资金是一种“绝望”的表现。
马库斯的批评集中在一个基本信念上:生成式人工智能是一种预测技术,它能大量生产出看似与人类水平相当的内容,但它的缺陷太大,无法带来变革。
他认为,为这些功能提供动力的大型语言模型(llm)本质上是破碎的,永远不会实现硅谷的宏伟承诺。
他说:“我对人工智能目前的实践持怀疑态度。“我认为人工智能可能具有巨大的价值,但法学硕士并不适合。而且我认为,管理它的公司大多不是世界上最优秀的人。”
人们乐观地认为,人类即将实现超级智能或通用人工智能(AGI)技术,这种技术可能与人类的能力相当,甚至超过人类的能力。这种乐观情绪推动OpenAI的估值达到了3000亿美元,这对一家初创公司来说是前所未有的,埃隆·马斯克(Elon Musk)的xAI也在竞相追赶。
然而,尽管大肆宣传,实际收益仍然有限。
该技术主要擅长编码辅助和文本生成。人工智能创造的图像虽然经常很有趣,但主要是作为表情包或深度伪造,对社会或商业几乎没有明显的好处。
马库斯长期担任纽约大学教授,他支持一种完全不同的方法来构建人工智能——他认为这种方法实际上可能以目前的生成式人工智能永远无法实现的方式实现人类水平的智能。
“把所有的钱都投入法学硕士的一个后果是,任何可能更好的替代方法都会被淘汰,”他解释道,并指出法学硕士的狭隘视野。
“正确答案很重要”
相反,马库斯提倡神经符号人工智能,这是一种试图人工重建人类逻辑的方法,而不是简单地在庞大的数据集上训练计算机模型,就像ChatGPT和谷歌的Gemini或Anthropic的Claude等类似产品那样。
他驳斥了对生成式人工智能将淘汰白领工作的担忧,并引用了一个简单的现实:“在太多白领工作中,获得正确答案实际上很重要。”
这指出了人工智能最持久的问题:幻觉,这项技术有充分证据表明会产生听起来自信的错误。
即使是人工智能最坚定的支持者也承认,这一缺陷可能无法消除。
马库斯回忆起他在2023年与领英(LinkedIn)创始人、硅谷重量级人物里德•霍夫曼(Reid Hoffman)的一次生动对话:“他跟我打赌,幻觉会在三个月内消失,赌多少钱都可以。我给他10万美元,但他不愿意赌。”
展望未来,马库斯警告说,一旦投资者意识到生成式人工智能的局限性,后果就会更糟。像OpenAI这样的公司将不可避免地将他们最宝贵的资产——用户数据货币化。
“投了这么多钱的人会想要回报,我认为这会把他们引向监控,”他说。他指出了奥威尔式的社会风险。“他们拥有所有这些私人数据,所以他们可以把这些数据作为安慰奖出售。”
Marcus承认,生成式人工智能将在偶尔的错误无关紧要的领域找到有用的应用。
他说:“它们在自动完成编程、头脑风暴等方面非常有用。“但没有人会从中赚到很多钱,因为它们的运营成本很高,而且每个人都有同样的产品。”