財聯社 5 月 17 日訊(記者 徐賜豪)由 OpenAI 引發的 AI 熱潮正在持續,但 AIGC 相關應用在提升生產效率的同時,也被不法分子用于生成虛假內容,擾亂社會正常運行。
(資料圖片僅供參考)
國信證券研報指出,國內 AI 應用逐步擴大,AI 相關應用也會逐步起量。針對 AI 濫用風險,數據安全、密碼、AI 監管均是重要的技術發展方向。
日前,美亞柏科發布了新產品,可以對 AI 生成的視頻、圖像、文本進行檢測識別。實際上,我國相關部門一直在探索對 AIGC 產品和應用的法律監管。相關專家也建議,只有建立健全相關法律制度,才能從根本上推動我國 AIGC 產業健康可持續發展。
美亞柏科發布 AI 監管產品
5 月 15 日,美亞柏科發布了一則投資者關系活動記錄表。
記錄表顯示,在 AI 監管產品方面,公司已經發布了 AI-3300" 慧眼 " 視頻圖像鑒真工作站,可以對深度合成偽造的視頻圖像、AIGC 生成視頻圖像進行監測鑒定。公司推出的 AIGC 檢測平臺支持 AIGC 生成文本的檢測識別。
同時美亞柏科表示,后續公司將持續圍繞包括反生成式 AI 在內的 AI 安全及監管領域進行研究,并根據業務需要適時布局相關產品。
元宇宙 NEWS 記者致電美亞柏科方面,該公司接線人士表示,從商業模式來看,目前公司的 AI 安全產品主要服務的還是像公安、網信等監管部門,針對網絡上利用生成式技術進行不良信息的傳播行為識別和鑒定;此外可以針對提供生成式服務的生產商提供安全性以及合規性的評測服務。
上述接線人士坦言,目前國內大模型廠商還處在發布以及市場適用的階段,從 B 端這個角度來看,目前業務領域的合作還在探討中。
" 隨著深度偽造技術和 AIGC 技術的日漸成熟,偽造相關視頻、音頻、圖像等技術門檻大幅降低,AI 技術濫用風險進一步擴大,監管迫切需要加強。" 天使投資人、資深人工智能專家郭濤向元宇宙 NEWS 記者表示,AI 監管工具在監測識別利用深度偽造技術和 AIGC 技術制作的圖片、視頻、視頻等方面有比較好的效果,可以減少技術濫用風險。
戴爾科技中國研發集團高級主管科學家李三平博士向元宇宙 NEWS 記者表示,從技術角度講,目前 AI 生成圖片、視頻已經有一些嘗試,例如谷歌將標記由其工具創建的每一個 AI 生成圖像。
" 技術上便于識別,使用上不影響用戶。但是文字類的內容還在探索中。" 李三平說道。
AI 監管一直在路上
國信證券認為,隨著國內百度、360、阿里、華為、騰訊等互聯網公司發布或者計劃發布大模型,AI 相關應用也會逐步起量。針對 AI 濫用風險,數據安全、密碼、AI 監管均是重要的技術發展方向。
實際上我國一直以來十分重視 AI 的監管。
2023 年 1 月 10 日,《互聯網信息服務深度合成管理規定》(以下簡稱《規定》)正式施行。《規定》明確,提供智能對話、合成人聲、人臉生成、沉浸式擬真場景等生成或者顯著改變信息內容功能服務的,應當進行顯著標識,避免公眾混淆或者誤認。任何組織和個人不得采用技術手段刪除、篡改、隱匿相關標識。
4 月 11 日,網信辦發布關于《生成式人工智能服務管理辦法(征求意見稿)》(簡稱 "《辦法》"),首次聚焦生成式 AI,進一步明確法律邊界和責任主體。《辦法》提出利用生成式人工智能產品提供聊天和文本、圖像、聲音生成等服務的組織和個人,包括通過提供可編程接口等方式支持他人自行生成文本、圖像、聲音等的組織和個人,應當承擔該產品生成內容生產者的責任。提供者應當對生成式人工智能產品的預訓練數據、優化訓練數據來源的合法性負責。
"AI 產業監管方面存在相關法律法規與標準體系不健全、缺乏多部門協同的自上而下的監管體系、監管技術手段落后等突出問題。" 郭濤指出,政府有關部門需要盡快建立健全 AIGC 研發與應用相關法律法規和標準體系,建立或完善倫理審查制度和監管體系,加強對科技企業、應用場景、使用者的監管,搭建多方參與協同治理平臺,推動 AIGC 產業健康可持續發展。