IT之家 12 月 3 日消息,據路透社報道,“未來生命研究所”今天發布了最新 AI 安全指數,指向 Anthropic、OpenAI、xAI 和 meta 等主要 AI 公司的安全措施“遠未達到新興的全球標準”。
機構指出,獨立專家的評估顯示,各企業一心追逐超級智能,卻沒有建立能真正管控這一類高階系統的可靠方案。
![]()
在多起自殺和自殘事件被追溯到 AI 聊天機器人后,社會對具備推理與邏輯能力且可能超越人類的系統帶來的沖擊愈發擔憂,這項研究正是在這樣的背景下公布。
Future of Life Institute 主席、MIT 教授 Max Tegmark 說,外界對 AI 協助黑客入侵、以及把人推向心理失控和自殘的事件議論不斷,美國的 AI 企業卻依然比餐館還少受監管,并持續游說抵制強制性的安全規范。
與此同時,AI 競賽持續升溫,主要科技企業正為機器學習技術的擴展和升級投入數千億美元。
IT之家從報道中獲悉,“未來生命研究所”是一家非營利機構,長期呼吁關注智能機器對人類潛在的威脅,機構成立于 2014 年,早期曾獲得特斯拉 CEO 馬斯克的支持。
今年 10 月,杰弗里?辛頓與約書亞?本吉奧等多位科學家呼吁暫停超級智能的研發,直至公眾提出明確訴求且科研界找到確保安全的路徑。





京公網安備 11011402013531號