Wednesday Jun 12, 2024
【Ep.10】Big Red Button管用吗?AI盛行的时代如何避免人类灭亡 How to Avoid Robot Apocalypse
终于更新了!前些日子有些忙碌。这期我们从停止按钮开始聊AI,解释了一些AI当中的概念以及AI安全问题相关的思想实验。到最后我们想说的也是,不要恐惧,如果说AI的行为是由它的奖励机制所决定的话,那到底是谁在设计这些奖励机制才是最重要的问题。
【时间轴】
00:19 从chatgpt4o开始聊AI的两种刻板印象,Javis和终结者 Two stereotypes of AI
05:42 什么是大语言模型,chatgpt为什么会说话 What is Large Language Model (LLM)
10:30 通过强化学习收集点赞和chatgpt的人设 Reinforce learning to collect thumbs up; Chatgpt’s personality
15:38 观察到的智能 Perceived intelligence
18:56 停止按钮为什么没用 What stop button does not work
28:17 设计奖励函数不容易 Alignment is hard when design a award system for AI
35:18 机器人三定律也没用 Three Laws of Robotics is a fiction
37:48 失败的AI例子 Failed AI
47:28 假设功能性,谁在做决定 Assumed functionality; WHO is making the decision
【关于我们】
如果你喜欢我们的节目,欢迎在-苹果播客 | 小宇宙 | 喜马拉雅 | Spotify | 海外泛用型播客客户端-订阅“猫肥家润”。如果对节目有任何反馈也欢迎写信给我们的邮箱chubbycathappychat@gmail.com。
【支持我们】
Comments (0)
To leave or reply to comments, please download free Podbean or
No Comments
To leave or reply to comments,
please download free Podbean App.