Steven Pinker认为只有男人才会担心超级智能人工智能的前景。 Quora上有没有关于这个话题的女性?

问:Steven Pinker认为只有男人才会担心超级智能人工智能的前景。 Quora上有没有关于这个话题的女性

答:是的。 我是Quora的女性,对这个话题有严重的保留意见。

从心灵哲学的角度,我写了关于人工智能的硕士论文。 我知道什么是智慧和思想,而不是,我绝对觉得,如果我们真的设法创造一个实际的人工智能,这是真实的思考能力,那么绝对没有人知道会因此而追随什么。

当然,有不同的方法可以解决这个问题,将三个(或四个,如果我们算上第零法则)嵌入机器人法则,创建一个培育AI,无论如何。 但总的来说,看着人类,我们是多么容易出错,不同的生物如何利用他们的智力来促进自我保护,以及有意识的生命是多么难以预测,我真的不相信我们会成功创造出安全的AI。 可能,可能,如果我们有很多法律和法规来确保一切都是开放和受控制的,并且仅用于严格的限制目的,那么超级智能只用于一个目的而不是实际的广义智能,也许它会安全的。

例如,看看猫吧。 我们爱他们,他们很聪明,大多数时候他们不会主动伤害他们的人类。 但他们是否关心其他人的福祉? 如果我们创造的东西变成了超级聪明的猫呢? 在实验室里它会很棒,对大多数科学家都很有帮助和热爱。 会有那个人说,人工智能给了他毛骨悚然,似乎在寻找机会伤害他,并开始玩弄他的研究。 没有人相信他,对吗? 那个家伙总是很奇怪。 所以现在人工智能已经准备好离开实验室……大多数人都不会被认为是AI的人类,所以你去了。

不只是男人是狂妄自大的。 它是众多众生的基本组成部分,不认为别人值得他们关心或关心。 当我们从根本上低于其能力时,我们怎么能确定这个超级聪明的人会与我们保持一致? 如果它决定世界上人口的一半会变得更好呢? 如果它确定非洲真的应该有机会发光,并杀死所有与非洲竞争的人类,行业,政府等,该怎么办? 没有人知道谁会在评估过程中赢得一些定义超出我们理解范围的东西。

所以,是的,我非常关注构建超智能甚至智能机器的努力。 不是因为我不相信不可能让他们正确。 是我们人类担心我。 我们不知道我们在做什么,这是一个新领域。 制造错误的代价是巨大的。 推出一些未完全理解的东西的好处将是巨大的,暂时。 根据定义,一个真正思考的机器将具有深不可测的内在生命。 像猫,其他人类,任何想法,有感觉的存在。 不,我们不知道没有感觉会有什么想法。 我不相信它甚至可能。

很多时候,人类吓唬我。 一个超级聪明的人,他的内心生活是深不可测的,让我更加害怕。

我已经准备好了,我的烤面包机告诉我我的日程安排,自驾车让我的孩子去玩足球练习,我的智能房子可以自己关灯,还有厨房食品室,我随身携带杂货。在一个可爱的认知疗法会议上,我的英国口音清洁Roomba。

带上人工智能。 带来它。

在我看来,我的生活和许多人的生活将会更加美好,我认为,在未来的岁月里,我们都会环顾四周,想知道如果没有人工智能完全融入我们的日常生活和日常生活,我们将如何在世界上相处。 我认为它将类似于我们目前如何在没有我们的智能手机或平板电脑作为恒定技术伴侣的情况下冥想和轻笑我们的生活。

Pinker所说的是,虽然许多人担心人工智能将成为一种敌对势力,但他表示,恐惧的根源在于将优越的智力与狂妄倾向等同起来的倾向,他将这种倾向称为阿尔法男性倾向。 我发现这个说法相当不科学和性别歧视。 它不仅是关于女性而且是男性的全面概括。 Pinker将阿尔法男性倾向称为相当刻板的侵略性并且可能是恶意的,但我个人知道一些阿尔法女性同样具有攻击性和强硬性,可能和刻板的男性一样恶毒。 所以对于Pinker来说,使用这个激进的阿尔法男性与和平女性的例子,因为他的论点的关键使我感到相当奇怪,它严重滑向主观意见而不是科学。 考虑到有证据表明有高智商的男性和女性使用他们的智力来获得仁慈的结果,以及与极端高智商相关的恶意行为之间没有相关性,这似乎更有效。

两性都可以获得智力,而报复性或恶性行为也是如此。

所以不,我不担心未来的人工智能可能是邪恶的,希望伤害人类。 我更担心的是AI设备会被黑客攻击并用于伤害。 现在我担心了。

几周前在拉斯维加斯举行的黑帽计算机黑客大会上,Jeep SUV黑客Charlie Miller和Chris Valasek再一次证明他们可以远程攻击Jeep数字系统并控制汽车。 今年他们证明了他们可以在SUV被驱动的情况下做到这一点![1]我发现这种对人类数字设备的恶意攻击 – 与基于计算机的人工智能相比,更具现实意义。擅离并让所有Skynety和杀手终结者走向人类。

脚注

[1]吉普黑客重新证明汽车黑客可能会变得更加糟糕

史蒂文·平克实际上是错的。 作为一名着名的心理学家和语言学家并不能让你了解目前在开发深度学习算法中所发生的事情,并且女性一般缺乏狂妄自大的特征只表明他在有限的女性群体中度过了太长时间。特定类型的自我选择在他周围。

计算机学习的最前沿涉及使用学习算法对计算机进行编程,并且具有其自身工具目标的智能是一种威胁,特别是当您不编写程序或甚至无法理解程序实际为自己编写的内容时。

Steven Pinker听起来像是一个受过良好教育的新时代白痴。

也许你应该仔细阅读签署这封公开信的人,表达对人工智能的关注。 事实上,这些人确实知道他们的狗屎。

AI公开信 – FLI – 生命未来研究所

您可能还会发现这个短视频更真实地探讨了这个主题,它实际上挑战了我们对人工一般智能的想法的拟人化倾向。

到目前为止,没有女性对此发表评论我觉得这样说: 不,不仅男人害怕超智能人工智能的前景 。 这种担忧与性别无关,但与理性思考有很大关系。 AI开发可能出错的方式太多了:

  • 一群有恶意的人将成为第一个创建AI的人,因此这个超级智能实体将为其他人服务。 注意:仅仅因为它具有难以想象的计算能力,并不意味着它将具有道德准则。
  • 如果好人会创建人工智能并尝试将人工智能系统的价值观与我们自己的价值观相对应,并将目标定为“让人们开心”,该怎么办? 一旦它变得足够聪明,它就会发现它可以通过在人的大脑内植入电极并刺激他们的快乐中心来最有效地实现这一目标。 然后它意识到它可以通过关闭大脑的其他部分来提高效率,让所有人都感到快乐无意识的蔬菜。 我们会尖叫等等,这不是我们的意思! 因为它来到我们身边,但为时已晚。 该系统不会让任何人妨碍其目标。 (引自Waitbutwhy – 超级智能之路)
  • 我们设法以一种让人们对人类价值观有深刻理解的方式设计AI的核心编码。 我们将“不伤害人类”编入其基础。 它不会阻止他建立另一个缺乏此代码的AI。
  • 一个比任何人都聪明几千倍的实体将以我们无法理解的方式改变地球上的生命过程,这有点让人不安。
  • 如果出现任何问题我们不能“只是把它关掉”。 它比我们更聪明,并且可能找到了在云中分发自身并存在于数百个备份中的方法。

在这个主题中有很多事情需要考虑,我只是不确定我们是否可以防止所有可能出错的可能性,因为从长远来看,我们因为出了名而非常糟糕。 例如,美国在冷战时遗留了超过4,800枚核弹头,我们用软盘保护它们,让食物送货员发现有人为了存款而打开门。

如果我们对核弹头如此不负责任,我对如何处理人工智能开发持怀疑态度。

遗憾的是,标题掩盖了这里。 Pinker博士在整个视频中指出,人类和其他动物智能往往与统治有关,因为动物以达尔文式进化。 我们的大脑是这样连接的,事实上,我们很难克服布线推动我们走向的冲动。

然而,人工智能不是进化过程的结果。 因此,没有理由认为它会发展出一种支配性的“心态”,除非构建它的人以这种方式编程。 特别是因为很明显,人类的AI超出了任何人类生产的能力。 任何有效的AI在其“心理”过程中都会非常明显,所以谁知道它会如何思考,特别是如果我们考虑道德推理。 因此,有任何特别的担忧是非常害怕的。 这就像担心豹会进入你家并吃掉你。 当然可能会发生这种情况,但机会并不大,所以对此一点都不用担心。

关于性别的一点点是最后的一次性评论,其中一个Baby Boomer感觉很好的说法,Pinker博士悲伤地喜欢抛弃他的热门作品。 我认为这种性别差异确实存在(毕竟可以观察到),但它只是反映了涉及科学和计算的公共声音的性别分布,而不仅仅是更深层次的。

也就是说,向其他代理商授予权力的恐惧是常见的,特别是在像美国这样的地方,我们有一个政府系统,假设任何有权力的单一实体都会疯狂。

根据我前任的经验,我了解到有些人通过故意给周围的人施加压力来控制他们的环境。 然后他们提出要求,如果他们的要求得到满足,那么他们就会停止升级这种压力。 这是一种勒索。 女性是其中的专家(尽管有些男性也设法做到这一点)。 例如,“给我钱,这样当我和你一起出去时,我会看起来很漂亮。 在我遇见你之前,人们曾经提议给我买些不错的东西。 我和朋友一起去购物,所以现在给我钱,好的。 嘿,你希望我用这么少钱购买什么! 你不知道化妆费用是多少? ”。

大多数人都不擅长这种操纵。 它更像是“闭嘴或我打你”。

人工智能对这些策略的看法是什么?

答案很简单。 如果邪恶的AI奴役人们,并且只对每个人为人工智能利益服务的个人表现感兴趣,那么这个人工智能很可能会发现总残暴是最好的选择。 历史上所有文明都残酷地压迫着他们的奴隶。 对于邪恶的AI,抱怨将毫无意义。 对于人类而言,这将是一个非常简单的以奖励为基础的生活,如果你表现良好,那么你就会获得食物和基本的生活条件,但如果你表现得很糟糕,那么就要超越。

¨我们确实知道,没有狂妄自大,杀人狂或种族灭绝倾向,就有可能拥有高智商……他们被称为女性。

他的论证的整个前提是错误的。 维多利亚女王或凯瑟琳女王不是他们的圣人吗?

欧洲皇后区比国王队发动更多战争

唉,即使前提是正确的,先进的AI可能对人类构成威胁的原因也不是Pinker博士所说的。 人工智能不会形成一个狂妄自大的人格。

认可机构是实用的。 他们使用数学来最大化他们的行动收益。 如果人工智能实现了单一性,意味着它的行为将成为我们人类的非确定性,我们将无法知道其效用函数将会是什么。 它可能认为破坏人类将根据其功能和目的提供最大效用,并且在奇点之后我们将无法控制那些。

我们害怕一个有感觉的AI,因为它是一个潘多拉盒子。

这是一个假等效的教科书案例。 “我们确实知道,没有杀人或种族灭绝倾向就有可能获得高智商……他们被称为女性”。

问题#1:他将可能性与概率混为一谈。 我可以设想一个超级聪明的AI和一个没有杀人或种族灭绝倾向的超级智能女人。 事实上,这并不意味着我有相同的理由相信所有超级智能AI都将像超级智能女性一样无威胁。

问题#2:女性,就像这个星球上几乎所有其他人一样,天生就具有我们的文化标准和信仰。 我不希望我在一刻一刻地遇到的大多数人都认可呕吐杀人或种族灭绝。 女性由于父母的抚养和在人类文化中成长而属于这一类别 – 大多数人不这样做。

问题#3:技术奇点本身就是人工智能所独有的。 从某种意义上说,你可以把它视为“绝对权力腐败绝对”思路的一个例子。 即使是世界上最聪明的女人(或男人),在他们能够完成的事情上也是可行的。 还有其他几乎同样聪明的人来抵消他们,他们可以(可行地)在绝对更糟糕的情况下被淘汰。 这不适用于技术奇点的情景,根据定义,超智能人工智能的发展远远超出了我们的能力,实质上我们无法跟上。 我们可能对普通人进行的普通检查和平衡不再适用于AI比较。

我认识的成功女性比成功男性更可怕。

如果你回到历史,看看女性占主导地位的文明,你会发现他们和男性同行一样疯狂。

事实上,它几乎侮辱妇女,认为她们不具备人类死亡和破坏的能力。

但是我离题了,世界上存在的所有问题,人工智能在终结者意义上的接管并不仅仅是在这里,而是来自我所看到的一些世博会,不久之前,厨师,会计和其他很多专业人士不再有工作,因为它是计算机化或机器人化的。

因为这显然适合男性主导的IT行业,平均意味着女性不太可能接触到这一点,因此不太可能意识到,因此不太可能担心。

谢谢阅读。

我认为,就人工智能而言,我们确实有些担心,但是,我不相信它们会在未来100年内成为先进的。 你看,我们正在经历他们所谓的21世纪的瓶颈。 如果我们(人类)在本世纪幸存下来,我们很可能会在22世纪(以及之后)开始快速创新和提出新技术。但首先,我们需要创造能够在本世纪生存的技术 – 替代燃料来源,解决全球变暖等问题

人工智能不会在这里待一段时间,所以我还没有看到用它担心它。

通常我接受史蒂文所说的大部分内容,但是这里让女性不能立即被AI取代的是拥有孩子的能力。 然而,一旦AIs也可以制作新的AI和机器人,女性就会继续摒弃历史,抱歉。

我对Steven Pinker不太了解,但根据我在Big Think上看到他的最后一段视频我觉得他做了很多疯狂的假设。 如果他声称这一点,那么我立刻就知道他怀疑是因为害怕人工智能的祖母的存在。 我相信还有更多。

作为旁注:“我们确实知道,如果没有狂妄自大,杀人或种族灭绝倾向,就有可能获得高智商……他们被称为女性。”

我知道他再次推广,但该死的:足够聪明的男性,没有狂妄自大,杀人或种族灭绝的倾向。 实际上,我会说最聪明的人不是这样的。 我们倾向于高估我们的独裁者和狂妄自大者的智慧。 他们的权力往往只是在一种情况下获得,这种情况可以通过蛮力和更多的不给予该死的。

语法纳粹语:英语不是我的原始语言,所以请随意批评我使用它的地狱。 我正在努力改进,所以它实际上是值得赞赏的。