名称:开云登录网页

地址1:深圳市龙岗区平湖街道华南城环球物流中心502

地址2:广东省深圳市龙岗区深圳市龙岗区华南城M13栋120号

电话:0755-28815622

E-mail:robin@honvei.com

产品中心
首页 > 产品中心
一水柠檬酸(山东英轩)

GPT-4老板:AI可能会杀死人类!马斯克呼吁暂停研发吴恩达:不能停!

来源:开云登录网页    发布时间:2024-02-16 01:13:54

而这番观点,是奥特曼在与MIT研究科学家Lex Fridman长达2小时的对话中透露。

订购热线:0755-28815622
产品描述

  而这番观点,是奥特曼在与MIT研究科学家Lex Fridman长达2小时的对话中透露。

  不仅如此,奥特曼谈及了近期围绕ChatGPT产生的诸多问题,坦承就连OpenAI团队,也根本没搞懂它是如何“进化”的:

  从ChatGPT开始,AI出现了推理能力。但没人能解读这种能力出现的原因。

  包括特斯拉CEO马斯克、2018年图灵奖获得者,“深度学习三巨头”之一Yoshua Bengio 在内的上千位产学研代表联名发表公开信“暂停巨型AI实验”,瞬间引起轩然。

  我们熟知的一些大咖,比如Stability AI CEO、07年图灵奖获得者、苹果联合发起人、多位DeepMind工程师也都赫然在列。

  并且暂停举措必须是公开、可验证的。如果AI机构不能立即实施,那么政府应该介入强制执行。

  其次,利用最近一段时间,开发和实施一套共享安全协议,用于高级人工智能设计和开发,并由独立外部专家进行严格审核和监督。

  信中还精确指出:这并不代表总体限制一般人工智能的发展,而是从目前危险的竞技中退后一步,避免更强大、更不可预测的黑箱模型和新兴能力出现。

  人工智能的研究和发展,应该重新聚焦于朝着更准确、安全、可信可解释等的AI系统开发工作上来。

  第三,开发者应同政策制定者一道,共同加速开发人工智能治理系统。这个治理系统至少包括:

  在成功创造出强大的AI系统之后,我们现在享受一个“人工智能夏天”。但这个夏天希望可以漫长一点,需考虑到所有人的利益,并给社会一个适应的机会,暂停使用一些危害系统;而不是毫无准备地冲进“秋天”。

  这么做的原因,无非就是忌惮当前GPT-4的强大。毕竟连OpenAI老板奥特曼自己也承认:AI确实可能杀死人类。

  继LeCun之后,吴恩达、田渊栋等一众AI大牛也发文公开反对“千人联名”。

  做为AI和机器学习领域国际上最权威的学者之一,吴恩达表示,在GPT-4出现之后要求AI训练暂停6个月是很可怕的事情:

  它(GPT-4)在教育、医疗保健、食品等领域都有很多新的应用,这将帮助许多人。

  在吴恩达的帖子里,除了上面提到的应用价值外,他还从竞争、风险以及AI发展的角度详细阐明了“为何需要反对暂停令”。

  首先是竞争方面,让第三方暂停他们不了解的新兴技术是反竞争的,树立了一个可怕的先例,是糟糕的创新政策。

  然后是AI风险,目前很多流媒体平台渲染的“AI公司疯狂发送不安全代码”是不正确的,绝大多数AI团队都十分注重人工智能的安全问题。

  最后再回到“6个月暂停令”本身,这并不是一个非常切实可行的建议,是在扼杀AI进步。

  要提高人工智能的安全性,应该是在安全方面做更大的投资,有关透明度和审计的规定将更加切实可行。

  在吴恩达的帖子下面,Meta数据科学家林致远,英伟达AI研究科学家Jim Fan也都表示赞同。

  Meta FAIR研究院研究员/高级经理,CMU机器人系博士田渊栋也转发并附议,称“我不签暂停令”,并将AI的发展比作囚徒困境:

  应该换个角度继续向前看,更好地理解 LLM,适应它并利用其力量,感受热度。

  近日,AI领域内的 “叛逆者”、纽约大学心理学和神经科学荣誉教授 Gary Marcus 发文称,“我们应该停止担心机器人接管世界,而是更多地考虑那些坏人可能会利用 LLMs 做什么,以及我们大家可以做什么来阻止他们。”

  此前,Marcus 与马斯克等上千人联名呼吁 “所有AI实验室应立即暂停训练比 GPT-4 更强大的大模型,这一时间至少为 6 个月”。

  在 Marcus 看来,AI风险 ≠ AGI风险,尽管很多人将AI的风险等同于超级智能或 AGI 的风险,但并非只有超级智能才能导致非常严重的问题。如 Bing 和 GPT-4 等不可靠但被广泛部署的人工智能,也会对现实世界造成不可忽视的风险。

  虽说我们一众“看客”并不清楚“暂停令”的发起者或签署者们是否有什么私心,但仅仅将这条呼吁归结为利益之争肯定是不全面的。

  先是为何需要发起这项呼吁,在那封公开信“暂停巨型AI实验”已经有讲明一些原因。

  赞成的网友这边,有人称正是因为AI发展像“潘多拉的魔盒”,但目前还没有被打开,还有挽救的余地:

  任何具有实验室逃逸潜力的研究都应该受到国际监管,我们该尽力去挽回,但如果你释放了一些没有办法挽回的东西,我们就有麻烦了。

  还有一种观点是,目前的AI发展成果已经足够人类使用,暂停几个月也无妨:

  GPT-4够用了,仅仅是优化它和扩展插件就能满足至少几年的需求,我们现在需要更加多的时间来理解AI如何与互联网互动,并且我认为测试越来越强大的AI是危险的。

  当然在这样一群争论中,还有一股清流,无所谓“AI安全”,他们自称降临派: