近年來,隨著人工智能技術的不斷進步,AI合成技術逐漸興起。與此同時,對肖像權、個人信息權益的侵害問題卻不容忽視。濫用AI合成技術可能面臨哪些法律風險?如何規范人工智能技術及應用?人民網采訪了北京互聯網法院副院長孫銘溪進行解答。
未經授權對含原告肖像視頻AI換臉 法院判定侵權
近日,北京互聯網法院發布了一起未經授權對包含他人肖像的視頻進行AI換臉的案件。原告廖某是一名古風短視頻博主,被告某科技文化有限公司在未經其授權同意的情況下,使用原告出鏡的系列視頻制作換臉模板,并上傳至涉案軟件中,提供給用戶付費以此牟利。原告認為被告的行為侵犯其肖像權與個人信息權益,要求被告書面賠禮道歉、并賠償原告經濟損失與精神損失。
法院認為,本案中,被告雖然使用原告的視頻制作視頻模板,但并未利用原告的肖像,而是通過技術手段將原告面部特征替換,模板中所保留的妝容、發型、服飾、燈光、鏡頭切換等要素并非與特定自然人不可分割,一般公眾通過替換后的視頻識別的主體為案外人而非本案原告。同時,被告將視頻模板提供給用戶使用的行為并未丑化、污損、偽造原告肖像。因此,被告的行為不構成對原告肖像權的侵害。
但是,被告收集了包含原告人臉信息的出鏡視頻,將該視頻中的原告面部替換成自己提供的照片中面部,該合成過程需要將新的靜態圖片中的特征與原視頻部分面部特征、表情等通過算法進行融合。上述過程,涉及對原告個人信息的收集、使用、分析等,屬于對原告個人信息的處理。被告處理該信息未經過原告同意,因此構成對原告個人信息權益的侵害。
法院判決,被告向原告書面致歉,賠償原告精神損失及精神撫慰金。該判決已生效。
“無底線”使用AI合成技術 將承擔哪些法律責任?
AI合成技術的發展給日常的生活和工作帶來了便利,但使用相關技術應遵守法律法規規定。孫銘溪介紹,以上述案件為例,軟件運營主體未經自然人知情同意,利用AI合成技術將收集的包含自然人人臉信息的出鏡視頻用于制作換臉模板視頻進行商業化利用,其行為侵害了自然人的個人信息權益。
而實踐中,AI合成技術的濫用問題屢見不鮮,其中不乏利用AI換臉、合成聲音等進行惡搞、制作虛假信息的行為。孫銘溪介紹,從責任類型維度看,這些行為可能涉及到民事責任、行政責任乃至刑事責任。
一是民事侵權的法律責任。未經授權使用他人肖像、聲音合成內容,直接侵害人格權,行為人需承擔停止侵害、賠禮道歉及賠償損失等民事責任。
二是行政違法的法律責任。未對合成內容進行顯著標識觸犯網絡信息管理規定,將受到警告、罰款乃至停業整頓等行政處罰。
三是刑事犯罪的法律責任。非法獲取、泄露生物識別信息可構成侵犯公民個人信息罪;利用偽造視頻實施詐騙、敲詐勒索則分別構成相應財產犯罪;制作傳播淫穢合成內容還可能涉嫌制作、傳播淫穢物品罪。
尋找規范AI合成技術“最優解” 多方發力不可缺
面對濫用AI合成技術問題,如何尋找規范技術應用的 “最優解”?孫銘溪認為,應推動有關部門完善與創新發展相適應的科學監管方式,制定相應的分類分級監管規則或者指引,明確開發者、服務提供者、使用者等各類主體的權利、義務與責任邊界。
孫銘溪建議,人工智能技術開發者應當堅持社會主義核心價值觀,嚴格遵守技術倫理規范,確保數據和基礎模型來源合法。此外,人工智能服務提供者應當依法承擔網絡信息內容生產者責任,履行網絡信息安全義務,落實生成內容標識義務。網絡用戶也要提升法律意識與數字素養,明確自身行為邊界,依法維護自身合法權益。
“網絡用戶利用人工智能進行創作時及時留存、記錄創作過程,如發生個人信息被泄露、肖像及聲音未經許可被人工智能處理、人工智能生成內容未經許可被他人使用等情形,應立即保存好相關證據,包括但不限于網頁網址、截圖、錄屏、錄音、相關聊天記錄等,為后續維權提供證據支持。”孫銘溪表示。(薄晨棣)
(責任編輯:蔡文斌)