更多

    反擊人工智能 Nightshade 毒藥擾亂 AI 生成錯亂結果

    人工智能( AI )搶飯碗不限於重複而低技術性的工作,連創作、藝術界也被攻下。荷里活演員工會大擺工令各界醒覺,要進一步提防人工智能,特別是生成式 AI 所帶來的影響。最近,一款名為「 Nightshade 」的 AI 工具,很有可能幫到創作者大舉反擊人工智能,對 AI 模型的訓練數據「落毒」,擾亂 AI 生成的結果。

    根據《麻省理工學院技術評論》的一篇報道,芝加哥大學教授 Ben Zhao 帶領團隊研發了新 AI 工具「 Nightshade 」,能讓創作者為作品的像素加入肉眼看不見的變動,當模型以這些作品訓練便會「中毒」,令模型錯判作品,例如帽子的圖像是蛋糕、手袋的圖像是麵包機,繼而產生錯誤的結果。同時,「中毒」的數據很難刪除,因為要在海量的數據中找出受損的樣本,工程相當巨大。

    引述報道, Zhao 表示有這研究在於很多創作者控訴大型科技公司,包括 OpenAI、Meta 和 Google 等,在未經他們同意下將受版權保護的作品用於 AI 模型訓練,這工具目的要重整 AI 公司和創作者之間的權力平衡。

    Zhao 與團隊還有另一 AI 工具「 Glaze 」,跟 「Nightshade」 一樣能改變作品的像素,是在原作品上加一層幾乎隱形的擾亂層,以影響 AI 模型讀取作品的藝術風格。研究團隊計畫將「 Nightshade 」融入「 Glaze 」 ,讓創作者自行選擇是否要對數據「下毒」。同時也會將「 Nightshade 」開源,讓更多人調整作品像素可增加 AI 模型的影響力。

    最新影片

    您會感興趣的內容

    相關文章