一群技术人拉横幅围堵 OpenAI,不禁 AI 就一直闹!

AIGC动态1天前发布 ai-front
105 0 0
一群技术人拉横幅围堵 OpenAI,不禁 AI 就一直闹!

 

文章摘要


【关 键 词】 人工智能抗议AGI风险组织行动技术争议版权纠纷

近日,美国旧金山成立的“停止人工智能”(Stop AI)组织引发广泛关注。该非暴力公民抵抗组织以阻止通用人工智能(AGI)发展为核心理念,主张通过抗议活动与国际条约彻底禁止相关技术研发,并要求销毁现有AGI模型,解散以OpenAI为代表的开发公司。其成员多具备技术背景,包括计算机科学、人工智能及工程领域专业人士,目前已筹集资金6685美元,目标争取全美3.5%人口(约1100万人)的支持。

Stop AI的行动焦点集中于对OpenAI的持续抗议。自2023年起,该组织多次封锁OpenAI总部入口,两名联合创始人Sam Kirchner和Guido Reichstadter曾因此被捕。他们强调,AGI可能引发人类灭绝风险,其安全性无法通过实验验证,并指出该技术将导致大规模失业、破坏民主制度,甚至使人类失去对智能领域的主导权。尽管OpenAI将AGI定义为“在经济价值工作中超越人类的自主系统”,Stop AI认为其潜在危害远超短期利益。

争议事件中,前OpenAI研究员Sunchir Balaji的死亡成为关键线索。Balaji曾指控公司在开发ChatGPT时违反版权法,并在去世前四天被传唤为相关案件作证。其父母质疑警方“自杀”结论,指出其公寓存在电脑损坏、加密驱动器丢失等异常情况。Stop AI推测Balaji之死可能与揭露版权问题有关,呼吁独立调查以厘清真相。

技术伦理争议呈现两极分化。支持AGI的群体认为其能加速解决癌症治疗、气候变化等全球性问题,但Stop AI反驳称,“无法确保绝对安全的技术研发毫无意义”。计算机科学家Finn van der Velde提出,需通过国际协议限制计算资源,防止AGI模型训练。与此同时,业内对AI风险的担忧早有先例,如埃隆·马斯克2014年将AI比作“召唤恶魔”,AI先驱杰弗里·辛顿预测20年内AI超越人类智能的概率达50%。

当前,人工智能的潜在威胁集中于两大领域:一是生成虚假信息加剧政治与法律风险,如伪造证据干扰司法;二是自动化导致职业替代危机,好莱坞编剧罢工与艺术家维权运动即为典型案例。尽管AI在医疗诊断、自动驾驶等领域展现积极潜力,Stop AI仍坚持“人类思维应始终居于智能前沿”的核心立场。随着AGI研发进程加速,技术创新与安全监管的平衡将成为全球性挑战。

原文和模型


【原文链接】 阅读原文 [ 2621字 | 11分钟 ]
【原文作者】 AI前线
【摘要模型】 deepseek-r1
【摘要评分】 ★★★★★

© 版权声明
“绘蛙”

相关文章

“极客训练营”

暂无评论

暂无评论...