尊敬的 KV:
我们公司正在考虑将大部分分析工作交给一家声称使用“软人工智能”的公司,以获取有关我们通过在线销售系统收集的数据的问题的答案。管理层要求我评估这个解决方案,但在整个评估过程中,我所能看到的只是这家公司在一个相当标准的分析模型集合之上加了一个花哨的界面。我认为他们真正想说的是“弱人工智能”,而他们使用“软”这个词是为了可以将其注册为商标。软(或弱)人工智能与通用人工智能之间的真正区别是什么?
感觉自己人为地变笨了
尊敬的 AD:
每当新的计算性能水平得到广泛部署,能够实现一些新型应用时,人工智能的话题大约每 10 到 20 年就会成为新闻热点。在 20 世纪 80 年代,一切都与专家系统有关。现在我们看到了远程控制(例如军用无人机)和统计数字处理(搜索引擎、语音菜单等)方面的进步。
人工智能的概念不再新鲜,事实上,我们希望与非人类相遇和互动的想法已经在小说中存在了数百年。20 世纪出现的人工智能思想有一些著名的来源——包括艾伦·图灵和艾萨克·阿西莫夫的著作。图灵的科学工作产生了现在著名的图灵测试,通过该测试,机器智能将与人类智能进行比较;阿西莫夫的小说为我们提供了机器人三定律,这些伦理规则将被编码到机器人大脑的最低层软件中。后者对现代文化(包括技术和流行文化)的影响很容易衡量,因为报纸仍然根据三定律讨论计算领域的进步。图灵测试当然是每个从事计算工作的人都知道的,也许比停机问题(https://en.wikipedia.org/wiki/Halting_problem)更广为人知,这让那些想要编写“编译器检查编译器”的人非常懊恼。
几乎所有非专业人士在人工智能方面的工作都存在的固有问题是,人类实际上首先并不十分了解智能。现在,计算机科学家经常认为他们了解智能,因为他们经常是“聪明”的孩子,但这与理解智能实际上是什么关系不大。在缺乏对人脑如何产生和评估想法的清晰理解的情况下(这可能不是智能概念的良好基础),我们引入了许多智能的替代品,其中第一个就是博弈行为。
人工智能早期的挑战之一——就目前而言,我谈论的是广义的人工智能,而不是软或弱或其他任何营销术语——是让计算机下象棋。现在,为什么一群计算机科学家想要让计算机下象棋?象棋,像任何其他游戏一样,有一套规则,而规则可以用代码编写。象棋比许多游戏(例如井字棋)更复杂(井字棋是在 1983 年的电影战争游戏中用来向另一台虚构计算机演示核战争是无法取胜的游戏),并且有足够多的潜在走法,从编程制胜走法或策略的角度来看,它很有趣。当计算机程序在 20 世纪 60 年代后期首次与人类棋手对弈时,所使用的机器按照任何现代概念来看都是原始的,并且无法存储大量的走法或策略。直到 1996 年,一台计算机,专门构建的深蓝,才在比赛中击败了人类特级大师。
从那时起,硬件继续朝着更大的内存、更高的时钟速度以及现在的更多内核不可阻挡地前进。现在,像手机这样的手持计算机有可能击败象棋特级大师。我们在象棋游戏中进行了近 50 年的人机对抗,但这是否意味着任何一台计算机都是智能的?不,并非如此——原因有二。第一个原因是象棋不是对智力的测试;它是对特定技能的测试——下象棋的技能。如果我能在象棋比赛中击败特级大师,但在餐桌上被要求递盐时却做不到,我会是智能的吗?第二个原因是,认为象棋是对智力的测试是基于一个错误的文化前提,即杰出的象棋选手是杰出的头脑,比周围的人更有天赋。是的,许多聪明人在象棋方面都很出色,但象棋或任何其他单一技能都不能代表智力。
转向我们现代的软人工智能和硬人工智能概念——或者弱人工智能和强人工智能,或者狭义人工智能和通用人工智能等等——我们现在只是在收获 50 年来电子技术进步以及将统计学应用于非常大的数据集的一小部分改进所带来的好处。事实上,人们认为是人工智能的工具的改进,在很大程度上是现在可以存储大量数据的结果。
20 世纪 80 年代关于人工智能主题的论文经常假设,一旦兆字节的存储空间普遍可用,“可能实现什么”。我们今天与之交互的狭义人工智能系统,例如 Siri 和其他语音识别系统,并非智能——它们无法递盐——但它们可以识别人类声音中的特征,然后使用搜索系统(也基于对大型数据集运行的统计数据)来某种程度上模拟我们向另一个人提问时发生的事情。“嘿,正在播放的那首歌是什么?”识别单词是通过对声学模型运行大量统计数据来完成的,然后运行另一个算法来丢弃多余的单词(“嘿”、“那”、“那首”)以获得“什么歌正在播放?”这不是智能,但正如亚瑟·C·克拉克 (Arthur C. Clarke) 的一句名言:“任何足够先进的科学都与魔法无异。”
所有这一切都说明,KV 对你在“软人工智能”的幕后发现运行在大型数据集上的统计系统一点也不感到惊讶。人工智能,无论是人工的还是其他的,仍然牢牢地掌握在哲学家,或许还有心理学家手中。作为计算机科学家,我们可能对智能的本质抱有幻想,但任何敏锐的观察者都可以看到,在我们能够让机器人给我们递盐,或者告诉我们为什么我们可能或可能不想在早餐前把它放在鼻涕虫上吃掉之前,还有很多工作要做。
KV
Kode Vicious,凡人称之为 George V. Neville-Neil,为了乐趣和利润而从事网络和操作系统代码的工作。他还教授各种与编程相关的课程。他的兴趣领域是代码探险、操作系统和重写你的糟糕代码(好吧,也许不是最后一个)。他获得了马萨诸塞州波士顿东北大学计算机科学学士学位,并且是 、Usenix 协会和 IEEE 的成员。Neville-Neil 是 Marshall Kirk McKusick 和 Robert N. M. Watson 合著的FreeBSD 操作系统设计与实现(第二版)的合著者。他是一位狂热的自行车爱好者和旅行家,目前居住在纽约市。
与亚瑟·惠特尼的对话
一位资深设计师关于编程语言的几句精辟之语
https://queue.org.cn/detail.cfm?id=1531242
信息提取
- 安德鲁·麦卡勒姆
从非结构化文本中提取结构化数据
https://queue.org.cn/detail.cfm?id=1105679
网络协议之战
- Kode Vicious
一个关于狂妄自大和狂热的故事
https://queue.org.cn/detail.cfm?id=2090149
版权 © 2016 由所有者/作者持有。出版权已授权给 。
最初发表于 Queue 第 14 卷,第 6 期—
在 数字图书馆 中评论本文
马克·鲁西诺维奇、艾哈迈德·萨利姆、圣地亚哥·扎内拉-贝格林、约纳坦·祖格 - 智能的代价
大型语言模型容易产生幻觉、提示注入和越狱,这对它们的广泛采用和负责任的使用构成了重大但可以克服的挑战。我们认为这些问题是固有的,当然在当前这一代模型中是如此,并且可能在大型语言模型本身中也是如此,因此我们的方法永远不能基于消除它们;相反,我们应该应用“纵深防御”策略来缓解它们,并且在构建和使用这些系统时,要假设它们有时会在这些方向上失败。
索尼娅·约翰逊-于、桑凯特·沙阿 - 你对人工智能一窍不通
长期以来,很难确定人工智能到底是什么。几年前,此类讨论会演变成长达数小时的会议,在会上勾勒出维恩图,并试图绘制出人工智能的不同子领域。快进到 2024 年,我们现在都知道人工智能到底是什么了。人工智能 = ChatGPT。或者不是。
吉姆·瓦尔多、索琳·布萨尔 - GPT 和幻觉
本实验中的发现支持以下假设:基于大型语言模型的 GPT 在更受欢迎且已达成普遍共识的提示下表现良好,但在有争议的主题或数据有限的主题上表现不佳。应用程序响应的可变性强调,模型取决于其训练数据的数量和质量,这与依赖于多样化和可信贡献的众包系统类似。因此,虽然 GPT 可以作为许多日常任务的有用工具,但应谨慎解读它们对晦涩和两极分化主题的参与。
埃里克·梅杰 - 虚拟阴谋:将大型语言模型用作神经计算机
我们探讨了大型语言模型 (LLM) 如何不仅可以充当数据库,还可以充当动态的、最终用户可编程的神经计算机。这种神经计算机的本机编程语言是一种受逻辑编程启发的声明式语言,它将思维链推理形式化和外部化,因为它可能发生在大型语言模型内部。