A-A+

人工智能有多危险? | 来自 AI 大师的公开信

2023年04月11日 福利盒子-国外译文ScienceDaily 暂无评论 阅读 9 views 次

有人说像 ChatGPT 这样的人工智能系统可以消灭人类。 其他人认为这是一个聪明的转移注意力的东西。

  • 简-基诺·詹森

 

AI 是在试图控制我们吗? 显然,许多在 AI 和技术环境中工作的人都这么认为,尤其是在硅谷。 在一封公开信中,他们呼吁将研究冻结六个月。 然而,批评者现在说,这完全是胡说八道,最重要的是,这是一种转移注意力的策略。 这些指控是怎么回事?

看这里,这是一封由数千名从事人工智能或技术工作的人签署的公开信。 其中包括 Apple 联合创始人史蒂夫沃兹尼亚克、埃隆马斯克和 Emad Mustaque,他是图像生成器 Stable Diffusion 的制造商之一。

是的,它说先进的人工智能有取代人类的风险。 而且我们可能会失去对我们文明的控制。 好的…

为了防止这种情况发生,下面的签名者要求暂停人工智能研究半年。 研究界还有其他人说征服世界的 AI 完全是胡说八道,我们应该更好地解决当前的 AI 问题,例如没有人确切知道 GPT-4 训练了哪些材料以及训练数据包含的内容是否真的可以,比方说,c't 文章。 好吧,至少他们没有问我。

以及我们如何处理人工智能系统已经在摧毁工作的事实。 另一方面,也有人说我们正在走向美好的时代。 没有人需要再工作了。 机器很快就会为我们做到这一点。

那么现在怎么样了? ChatGPT、Midjourney 和 Bing 现在是我们的朋友,还是数据黑客想让我们出去? 我们仔细看了看。 敬请关注。

亲爱的黑客,亲爱的网民,欢迎来到...

好吧,这封公开信在过去几天引起了不小的轰动。 由于 AI 的发展,一半的科技界都在担心人类的未来。 这听起来一点都不好。

具体来说,签名者要求将所有比 GPT-4 更强大的人工智能工具的开发搁置六个月,并且在这段时间里,人们应该考虑如何应对这一技术开发。 如有必要,政治家也应该进行监管。

这封信描绘了最暴力的恐怖场景,即用机器取代我们,甚至谈论我们文明的丧失。 这个特定的思想流派已经有了一个名字,即“x-risk”,因为它是关于存在风险的。 简而言之,x-risk 的倡导者假设,在某个时候,智能系统会达到可以自我改进的程度,然后就会出现智能爆炸,因为机器的工作速度比人类快得多。

因此,从轮子的发明到第一台计算机至少用了 4000 年,而另一方面,潜在的 AI 智能爆炸可能只持续几个时钟周期。 然后是的,我们有奇点,可以说是人类无法再赶上机器智能的地步。

但最大的问题是,超级智能的 AI 一定是危险的吗? 她必须有一个议程和自我保护的本能吗? 这些 AI 末日论者是否有可能将他们自己的阿尔法男性自我投射到机器上? 尽管机器根本没有自我,也没有睾丸激素,实际上应该理性行事。

好吧,对于这样的公开信,您无论如何都必须仔细查看内容:实际上是谁在签名? 我刚刚告诉过你,埃隆·马斯克是签署者中最引人注目的一匹马。

2015 年,埃隆·马斯克 (Elon Musk) 甚至与人共同创立了 ChatGPT 背后的公司 OpenAI。 2018年他想完全接手,但没有成功,然后他彻底离开了公司。 因此,以理性行为着称的马斯克很可能只是在为受伤的自尊心挣扎。

另一位签名者是历史学家亚瓦尔·诺亚·哈拉里 (Yaval Noah Harari),他经常在自己的书中预言世界末日,这些书已售出数百万册。 这甚至可以说是他品牌的核心。 所以他靠着这样的末日思想赚钱。 因此,可以说,他直接从公开信中获利。 这也是房间里的另一个论点,即这种谈论超级聪明和超级危险的 AI 的危险最终并没有使 AI 炒作变小,反而变大了。

毕竟,对于大多数人来说,能够与这样一个全能的人工智能一起工作可能是相当令人兴奋的。 就像“哇,ChatGPT 解决了我的数学问题”,但也可以接管整个世界。 所以我完全可以理解,无论如何我觉得它在技术上超级迷人,如果里面也有 AI 科幻小说的话。

当然,您想玩弄它。 这是我想要的产品。 当然,OpenAI 的负责人 Sam Altman,即制造 ChatGPT 和 GPT-4 的人,并没有在这封信上签名,但他一直在谈论他的技术有多么危险。 起初你可能认为这会适得其反,但最终它是非常聪明的营销,因为如果你声称你已经发明了一个潜在的天网,你会得到更多的关注,而不是你说,哦,我那里有这样一个系统发明的,它补充了文本输入。

但我不想说所有签署方都根本不关心这件事本身。 肯定有人非常担心。 但我认为你必须区分实际涉及哪些危险。 所以这种人工智能接管世界的生存危险,是的,我们可能还没有。

在像 GPT-4 这样的大型语言模型中,有时可能会出现像 AGI,即通用人工智能这样的东西。 所以通用人工智能,即与人类相同的智力。 但也有一个派系,我称之为“Kill the Hype”,它说这一切与智力无关,而只是随机鹦鹉统计计算下一个单词。

例如,计算语言学家 Emily Bender。 她是最早发明“随机鹦鹉”一词的科学家之一。 是的,这就是如此大的语言模型实际工作的方式。

只是总有声音说,系统显示出的能力,其实是培训教材上无法收集到的。 例如,即使软件从未见过任何图片,他们也可以说出如何画独角兽。 所以任何照片都可以,更不用说独角兽了。

现在是在摘樱桃吗? 那是真正的智慧吗? 还必须非常明确地说,研究根本还不了解这种大型语言模型在内部所做的很多事情。 顺便说一句,在描述中我已经链接了关于这个主题的几个来源和论文。 但不管怎样,讨论这样的语言模型是愚蠢还是聪明是没有意义的。

唯一重要的是,ChatGPT、Midjourney 和 Stable Diffusion 等产品已经被数百万人使用,并且已经在改变当今世界。 例如,公司可以使用软件生成图形,而不是向插图画家付费,或者编码人员可以在几秒钟内使用 ChatGPT 编程,否则需要数小时或数天。

这意味着 AI 可以节省时间,但工作可能因此而丢失。 顺便说一句,OpenAI 还与宾夕法尼亚大学一起发表了一项关于此的研究。 该研究旨在显示有多少工作受到大型语言模型的威胁。 结果,在 19% 的工作中,至少有一半的任务可以由 AI 接管。

但当然你也可以更乐观地看待一切。 因此,人工智能确保人们做同样的工作只需做更少的事情。 因此,更少的工作带来更多的附加值。 这可能意味着每个人都会更加繁荣。 是的,可以,对吧?

但过去 30 年的数字化已经确保了效率的显着提高,但那些已经拥有比从事实际工作的人更多资本的人尤其从中受益。

这不是左翼宣传什么的,可以很客观地证明。 在这里,这是基尼指数。 0表示完全平均分配,100表示​​完全不平均分配。 在过去的几十年里,它只是增加了。 在这里您可以看到德国和美国的图表。

因此,与其仅仅应对一些“人工智能会杀死我们所有人”的未来情景,我们更应该看看今天。 顺带一提,这也是对AI公开信的解读。 是否存在这样一个糟糕的世界末日场景,旨在分散人们对当前真实人工智能问题的注意力?

正如我所说,还有很多事情需要考虑。 因此,不仅涉及提到的可能消失的工作,还涉及人工智能公司如何用图像、文本、书籍等人造作品来提供他们的产品,甚至不付给作者报酬就赚了很多钱。

或者还有关于实际发生的事情,例如,图片基本上只是现有图片的混合,因为制作昂贵的照片不再值得,因为您可以轻松生成超级专业的照片。

但到了某个时候,什么新东西都不会出现了? 那么我们是否只是让 AI 一次又一次地将旧东西混合在一起? 那么文化现在基本停止了吗? 是的,当再也没有人能分辨出真假照片时,真假又如何呢?

会不会有个性化的假新闻,可以用来精确操纵人? 这些都是我们应该讨论的事情。 然后也许稍后在某个时候关于人工智能世界的统治。 或者? 你怎么看? 再见!

给我留言

Copyright © 八叔软件福利收集 保留所有权利.   站点地图 Theme  Ality 吉ICP备19000713号-1

用户登录 ⁄ 注册

分享到:

2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20