該實習生已在8月被辭退。
近日有傳聞稱字節跳動大模型訓練被實習生攻擊,對此,字節跳動10月19日回應表示,經公司內部核實,確有商業化技術團隊實習生發生嚴重違紀行為且已被辭退,但相關報道也存在部分夸大及失實信息。
字節跳動指出,涉事實習生惡意干擾商業化技術團隊研究項目的模型訓練任務,但并不影響商業化的正式項目及線上業務,也不涉及字節跳動大模型等其他業務。同時,網傳“涉及8000多卡、損失上千萬美元”嚴重夸大。
字節跳動還稱,經核實,涉事人一直在商業化技術團隊實習,并沒有AI Lab實習經歷。其社交媒體個人簡介及部分媒體報道有誤。此外,該實習生已在8月被公司辭退。公司也將其行為同步給行業聯盟和所在學校,交由校方處理。
10月18日,多個微信群流傳一則消息:“某頭部大廠的大模型訓練被實習生入侵,注入了破壞代碼,導致其訓練成果不可靠,可能需要重新訓練。據稱遭到入侵的代碼注入了8000多張卡,帶來的損失可能超過千萬美元。”
隨后,有媒體報道稱,從知情人士處獲悉,該頭部大廠為字節跳動。此事發生在今年6月,起因是某高校的博士在字節跳動商業化技術團隊實習,因對團隊資源分配不滿,使用攻擊代碼破壞團隊的模型訓練任務。
傳聞顯示,該實習生利用了HF(huggingface)的漏洞,在公司的共享模型里寫入破壞代碼,導致模型的訓練效果忽高忽低,無法產生預期的訓練效果,而且AML團隊無法核查原因。但傳聞曝出之后,該實習生還在某微信群里辟謠稱,自己發完論文后就從字節跳動離職,這個當口有另一個人鉆漏洞改模型代碼,把鍋扣到自己頭上。
大模型在安全性方面的問題已經受到業內高度關注。今年8月,中國信通院發文稱,近年來,以大模型為核心的人工智能技術飛速發展,成為數字經濟增長新動能。然而,作為新質生產力的大模型在安全性方面仍存在較多缺陷,這為其大規模落地應用帶來了不確定性。近期,中國信通院發布的大模型安全基準AI Safety Benchmark的測試結果顯示,大模型(尤其是開源大模型)在惡意誘導手段下的攻擊成功率均較原始輸入有明顯提升。因此,對大模型進行安全對齊防護刻不容緩。
部分綜合自e公司、界面新聞
責編:李丹
校對:趙燕