Wednesday Jun 12, 2024

【Ep.10】Big Red Button管用吗?AI盛行的时代如何避免人类灭亡 How to Avoid Robot Apocalypse

终于更新了!前些日子有些忙碌。这期我们从停止按钮开始聊AI,解释了一些AI当中的概念以及AI安全问题相关的思想实验。到最后我们想说的也是,不要恐惧,如果说AI的行为是由它的奖励机制所决定的话,那到底是谁在设计这些奖励机制才是最重要的问题。

 

【时间轴】

00:19 从chatgpt4o开始聊AI的两种刻板印象,Javis和终结者 Two stereotypes of AI

05:42 什么是大语言模型,chatgpt为什么会说话 What is Large Language Model (LLM)

10:30 通过强化学习收集点赞和chatgpt的人设 Reinforce learning to collect thumbs up; Chatgpt’s personality

15:38 观察到的智能 Perceived intelligence

18:56 停止按钮为什么没用 What stop button does not work

28:17 设计奖励函数不容易 Alignment is hard when design a award system for AI

35:18 机器人三定律也没用 Three Laws of Robotics is a fiction

37:48 失败的AI例子 Failed AI

47:28 假设功能性,谁在做决定 Assumed functionality; WHO is making the decision

 

【关于我们】

如果你喜欢我们的节目,欢迎在-苹果播客 | 小宇宙 | 喜马拉雅 | Spotify | 海外泛用型播客客户端-订阅“猫肥家润”。如果对节目有任何反馈也欢迎写信给我们的邮箱chubbycathappychat@gmail.com

 

【支持我们】

Patreon | 爱发电

Comments (0)

To leave or reply to comments, please download free Podbean or

No Comments

Copyright 2023 All rights reserved.

Podcast Powered By Podbean

Version: 20240731