當前,以大模型為代表的人工智能技術正加速重塑人類社會。據工業和信息化部公布的數據顯示,截至2024年9月底,我國人工智能核心產業規模接近6000億元,相關企業超過4500家。但與此同時,伴隨著技術的突破,AI生成內容的真實性、倫理風險等問題日漸凸顯。
日前,科技領域的代表們圍繞AI治理、技術規范與倫理風險防范提出了一系列針對性的建議。
包容創新與安全監管并重
360集團創始人周鴻祎關注大模型安全和幻覺,他指出,大模型存在“幻覺”,偶爾會生成看似不合理、與事實不符的情況。“幻覺”是一把雙刃劍,是大模型與生俱來的特點,不可消除,也決定其創造力和想象力,對于實現AGI(通用人工智能)極其重要。如果大模型沒有“幻覺”,就失去了想象力和創造力。并且越是能力強的模型,一般幻覺也越多。
他建議,借鑒“避風港原則”成功經驗,對大模型以及相關的產品和服務實施柔性監管,適度包容大模型的“幻覺”,對于“幻覺”導致的一般性失誤,避免直接關停下架,給予企業自我糾正的機會,促進企業大膽創新、放手競爭,爭取讓更多企業“復制”DeepSeek的成功。
破解大模型“幻覺”難題
科大訊飛董事長劉慶峰也針對大模型幻覺提出了建議。他指出,應預防大模型生成“幻覺數據”充斥互聯網帶來的危害,從技術研發和管理機制上構建可信的信息環境。為此,他提出兩點建議:一是構建安全可信數據標簽體系,提升內容可靠性;二是研發AIGC幻覺治理技術和平臺,定期清理幻覺數據。
加強AI深度偽造欺詐管理
TCL創始人兼董事長李東生建議從四個方面采取措施,加強AI深度偽造欺詐管理:一是加快人工智能深度合成內容標識管理規章制度的出臺,確保所有AI生成內容能被清晰識別;二是明確人工智能深度合成服務商的責任,若未履行標識義務,應承擔相應處罰;三是推動AI深度合成標識技術標準的制定,從源頭管理風險;四是加強國際合作,共同建立AI治理框架,形成全球有效監管體系。
整治AI換臉侵權
小米集團創始人、董事長兼CEO雷軍建議,加強“AI換臉擬聲”違法侵權重災區治理:一是針對“AI換臉擬聲”等某一代表性問題,探索推出人工智能單行法,提高立法位階及其效力,分級分類的基礎上進行務實治理,明確“AI換臉擬聲”應用邊界紅線,完善侵權證據規則,加大對利用人工智能技術實施犯罪行為的刑事處罰力度。二是強化行業自律共治,壓實平臺等各方的責任。支持平臺企業開發可精準識別人工智能深度合成內容的技術能力,優化升級通信軟件和內容平臺巡查審核機制、投訴舉報機制、應急處理機制,確保及時阻斷問題內容傳播。三是建議加強人工智能方面的法制宣傳教育,增強民眾的警惕性和鑒別力,聚焦重點人群,在中小學人工智能教材中加入倫理規范內容,深入老年人聚居的社區開展相關知識普及活動,在全社會夯實“以人為本、智能向善”的人工智能發展生態。
相關產品
相關文章
- 北京IT外包-阿里開源QwQ-32B推理模型,性能比肩DeepSeek-R1 671B!2025年04月03日
- IT外包-阿里開源QwQ-32B推理模型,性能比肩DeepSeek-R1 671B!2025年04月03日
- 北京IT外包-青島智慧審批系統接入DeepSeek,AI賦能政務服務智能化轉型2025年04月02日
- IT外包-青島智慧審批系統接入DeepSeek,AI賦能政務服務智能化轉型2025年04月02日
- 北京IT外包-00后用DeepSeek1天賣出3.3億,AI技術助力直播行業新紀元2025年04月01日