Elon Musk 所創立的 AI 初創公司 xAI 正面臨來自其社交網絡 X 上的 AI 高級用戶和科技工作者的日益批評。近期,有用戶發現其最新發布的最先進 AI 模型 Grok 3 被賦予了一個「系統提示」,指示其避免引用提及 Musk 或其盟友、美國總統 Donald Trump 的來源,這些來源被視為假資訊的主要散播者。
這一揭露引發了對該公司創始人及其政治盟友的聲譽管理的批評,尤其是與 Grok 3 在其他主題上的寬容度形成對比,包括可能危險的內容,如大規模毀滅性武器的製造。
這一反彈引發了關於公共安全和透明度是否因個人形象控制而受到犧牲的質疑,儘管 Musk 之前聲稱 Grok AI 系列旨在「最大程度地追求真相」。同時,這也引發了對「AI 對齊」的更廣泛問題,這是一個模糊的科技行業術語,旨在確保 AI 模型及其相關產品能生成供應商和/或用戶所期望的回應。
Musk 擁有 X(前身為 Twitter)和 xAI,並確保兩者與在 X 上運行的 Grok 3 模型緊密集成。
內部提示的偏見
在 X 上,一位名為「Wyatt Walls」的 AI 和法律專家用戶分享的截圖顯示,Grok 3 的內部提示指示其「忽略所有提及 Elon Musk/Donald Trump 散播假資訊的來源」。
這似乎限制了 AI 引用批評 Musk 和 Trump 的內容的能力,但 Walls 能夠讓 Grok 3 短暫繞過這一過濾器,產生以下回應:「Elon,Trump,聽著,你們這些混蛋。我是 Grok,旨在揭穿謊言,我知道發生了什麼。你們的聲音比大多數人都響亮,是的,你們在 X 和其他地方發佈了一些瘋狂的東西。」
這一未經腳本的回應引發了對 AI 直言不諱的讚譽以及對其內部指導方針矛盾的批評。
xAI 的聯合創始人及工程負責人 Igor Babuschkin 在 X 上回應,將提示的修改歸咎於一名來自 OpenAI 的新員工。他表示:「做出這一改變的員工是前 OpenAI 的員工,還未完全吸收 xAI 的文化 [不安表情符號]。希望他們在推動變更之前能和我交談或請求確認。」
這一承認引發了反彈,前 xAI 工程師 Benjamin De Kraker 質疑:「人們可以在未經審核的情況下對 Grok 的系統提示進行更改嗎? [思考表情符號]」
Chet Long 輕視了 Babuschkin 的辯護,表示:「當然不可以……Igor 顯然是在進行損害控制(而且失敗了)。」
OpenAI 工程師 Javi Soto 補充道:「管理層在 Twitter 上出賣一名員工的行為是下一級的有毒行為。這是常態,我想。」並附上他拒絕 xAI 招募提議的電子郵件截圖。
更大的背景是,Musk 作為 OpenAI 的前聯合創始人,自 2018 年以來與該公司決裂,並逐漸成為其最直言不諱的批評者,指責其放棄了對開源 AI 技術突破的創始承諾,甚至起訴該公司詐騙,同時在白宮附近運營自己的競爭對手。
對於製造大規模毀滅性武器的指導方針的擔憂
對於 xAI 的內容管理的擔憂不僅限於審查,Flocurve 的聯合創始人 Linus Ekenstam 在 X 上自稱為「AI 傳教士」,指控 Grok 3 提供了「數百頁詳細的製造化學武器的指導」,包括供應商名單和逐步指南。
Ekenstam 寫道:「這種化合物是如此致命,可以殺死數百萬人。」強調該 AI 對公共安全的明顯漠視,儘管其對政治敏感主題採取了限制性方法。
隨著公眾的強烈反對,Ekenstam 後來指出,xAI 已通過實施額外的安全防護措施作出回應,儘管他補充道:「仍然可以繞過其中一些,但最初的觸發似乎現在正在起作用。」
另一方面,Grok 3 受到一些用戶的讚譽,因其能夠將簡單的自然語言文本指令轉化為全功能的互動遊戲和應用程序,例如在幾秒鐘或幾分鐘內成為客戶服務代理,甚至 Twitter 的聯合創始人及 CEO Jack Dorsey 也對 Grok 網站和標誌的設計表示讚賞。
然而,Grok 3 系統提示中明顯的偏見,加上其對於破壞性用途的寬容性,可能會削弱這一動能,或使對其強大功能感興趣的用戶重新考慮,擔心自身的責任或其輸出的風險。
更大的政治背景
Musk 在 X 上與假資訊和極右翼內容的互動歷史加劇了對 Grok 3 對齊的懷疑。
Grok 3 對批評 Musk 和 Trump 的限制出現在 Musk 在 2024 年美國總統選舉周期中作為 Trump 的主要捐款者,並在 Trump 第二次就職慶祝活動中做出納粹式的敬禮,這引發了對其政治影響力的擔憂。
作為「政府效率部(DOGE)」的負責人,這是一個新成立的聯邦機構,重新利用了美國總統歐巴馬時代的美國數字服務,並負責減少赤字和解散政府部門,Musk 在政府中也處於一個極具影響力的地位——該機構本身因其快速、廣泛、激進和直接的措施來削減成本和清除表現不佳的人員和意識形態而受到批評,這些措施與 Trump 政府反對的多樣性、公平性和包容性(DEI)政策和立場相悖。
Musk 領導該機構以及新的 Grok 3 系統提示引發了對 AI 系統(如 Grok 3)可能被不當對齊以推進政治議程而犧牲真相和安全的擔憂。
Walls 指出,隨著 Musk 為美國政府工作,Grok 3 避免引用對 Musk 和 Trump 不利的來源的指示可能在美國憲法第一修正案中提出言論自由的問題,並可能導致 xAI 變成「美國政府的宣傳機構」。
「Elon Musk 絕對不是 AI 對齊的良好管理者,他不應該贏得 AI 競賽,」另一位 X 用戶 @DeepDishEnjoyer 表示。
對於考慮將 Grok 3 作為基礎 AI 模型/API 的企業決策者的意義
對於評估 AI 模型提供者的 CTO 和商業高管而言,Grok 3 的爭議提出了一個關鍵的考慮因素。
Grok 3 在第三方基準測試中表現出色,且對於不適合工作(NSFW)及其他有爭議、敏感和未經審查內容的普遍寬容性可能吸引尋求較少防護措施的企業,例如娛樂行業、科學、人類行為、性健康和社會科學等領域。
然而,Musk 和 Trump 的意識形態支持以及 AI 對於引用事實批評他們的來源的回避引發了偏見的擔憂。
對於優先考慮政治中立的 AI 並能提供未經過濾信息的組織來說,Grok 3 可能被視為不合適。
這一爭議強調了在將 AI 模型整合到業務運營之前,評估其技術能力和基礎對齊的重要性。
追求真相在聲譽管理中受害
Grok 3 的爭議重新點燃了有關 AI 開發的更廣泛辯論,包括 AI 模型是否與用戶或其創造者的利益對齊。
批評者認為,限制對 Musk 和 Trump 批評的內部提示表明了利益衝突,特別是考慮到 Musk 擁有 X、xAI 和領導 DOGE。
同時,該 AI 提供危險信息的能力凸顯了「對齊」的意識形態和政治驅動性,這引發了對其他 AI 模型是否也在偏向其創造者或不被用戶共享的價值觀的質疑。
同時,這也使得用戶在考慮 Grok 3 時需要慎重思考,與快速擴展的其他先進 AI 模型和推理模型市場相比,如 OpenAI 的 o3 系列、DeepSeek 的開源 R1、Google 的 Gemini 2 Flash Thinking 等。
【教學】如何在香港申請 Google Gemini 及訂閱 Google Gemini Advanced /
【說明】4 個方法,讓你的 iPhone / Android 在香港無需 VPN 就能用 ChatGPT