專屬客服號
微信訂閱號
全面提升數據價值
賦能業務提質增效
今年以來,ChatGPT引領AI技術率先“出圈”, OpenAI、Google、微軟、英偉達、百度、華為、阿里巴巴等紛紛入局推出相關AIGC產品,在科技界卷起“驚濤駭浪”。而今年3月底,意大利個人數據保護局宣布禁止使用ChatGPT,此后,德國、加大拿、法國等也相繼表達相似態度,一度讓AIGC在歐洲陷入僵局。5月初,谷歌、微軟、OpenAI等高管與美國政府官員會面討論AI立法等問題。
以上種種,癥結在于人工智能可能面臨的數據安全、隱私保護、倫理規范等方面的風險和挑戰無法預測,業界甚至有聲音提出要“按下暫停鍵”。
“人工智能教父”杰弗里·辛頓今年年初曾經警告,人工智能對人類構成的威脅將比氣候變化更加緊迫。如果有人用它來制作虛假圖像、視頻,傳遞錯誤信息,其破壞力遠大于單純的文字形式。
當前,人工智能詐騙案件頻發應驗了這一警告。業內人士指出,要更好地發展和應用AI大模型及相關產品,就必須積極應對其可能帶來的知識產權、安全、倫理、環境等方面挑戰,實現科學有效堅持監管與創新發展的平衡。
“目前,我國人工智能的監管是著重于內容安全。”北京理工大學法學院教授、外交部國際法咨詢委員會委員洪延青在2023中關村論壇院士專家企業一席談平行論壇上指出。
記者了解到,今年4月,國家互聯網信息辦公室起草了《生成式人工智能服務管理辦法(征求意見稿)》(以下簡稱《辦法》),明確了生成式人工智能的定義,以及相關產品和服務提供者的合規義務,對生成式人工智能進行專項監管,預計這個管理辦法即將生效。
洪延青表示,《辦法》著重強調生成式AI所產生的文本、圖片、聲音、視頻、代碼的真實性、準確性、客觀性。對于生成式AI的開發者,應承擔內容生產者責任和個人信息處理責任;對于下游使用生成式AI的應用者,應當向國家網信部門申報安全評估,并履行算法備案和變更手續等。在洪延青看來,主要防范的是技術背后的想象,比如合成人臉、合成聲音來詐騙等。
在國外,歐盟和美國走出的AI監管路徑各不相同。洪延青介紹道,歐盟AI法案從人的基本權利保護出發,起初劃分為低風險、高風險AI和禁止性AI,并在通用性AI監管和基礎模型層面分別規定了開發者的盡責義務。當技術進展到生成式AI階段,監管則主要聚焦兩項內容:一是能夠規避內容問題,例如虛假信息和誹謗,二是在生成式AI訓練中使用到數據的版權問題。
洪延青也指出,美國的AI政策相對寬松,基本上是鼓勵發展的態度。國會4部法律宗旨是要提升全國AI能力,白宮行政令也是以AI能力建設為導向,政府使用AI是需要嚴格監管,但對于社會消費者而言監管相對寬松,只是整體上對于社會平等性等問題比較關注。
洪延青總結道:“總的來說,我國AI監管現階段關注內容安全,歐盟關注對人的基本權利的保護,美國到現在為止是一個推進AI能力建設的路徑,所以三個不同的國家和地區走了三個不同的方向,但是我相信等歐盟人工智能法案在年底或者明年通過之后,會對全球產生比較大的影響,可能到時候監管格局會發生比較大的變化。”
洪延青對AI企業提出建議,要高度關注這些法律的變化,以及不同國家和地區法律變化所產生的聯動效應。
作者:盧夢琪 來源:中國電子報、電子信息產業網
本文為本網轉載,出于傳遞更多信息之目的,并不意味著贊同其觀點或證實其內容的真實性,如涉及侵權,請權利人與本站聯系,本站經核實后予以修改或刪除。
請完善以下信息,我們的顧問會在1個工作日內與您聯系,為您安排產品定制服務
評論