《互聯(lián)網(wǎng)信息服務算法備案》,是小編關注重點內容,近日,由中國人民大學法學院、中國人民大學未來法治研究院主辦的“生成式人工智能算法規(guī)制——《生成式人工智能服務管理辦法(征求意見稿)》學術研討會議”召開,來自政府相關部門、高校研究機構、人工智能產業(yè)界的專家參加了本次研討會。具體內容如下。
■中國人民大學未來法治研究院執(zhí)行院長張吉豫:
可以以發(fā)展、安全和法治三個關鍵詞概括對ChatGPT為代表的大規(guī)模語言模型的系列關注。第一,生成式人工智能技術是劃時代的發(fā)展,大模型在互聯(lián)網(wǎng)、數(shù)據(jù)等架構上可能形成新的層次,深刻影響產業(yè)的發(fā)展和未來技術的進步。第二,從數(shù)據(jù)、算法、系統(tǒng)集成等角度來看,生成式人工智能的發(fā)展、創(chuàng)新中伴隨著風險與挑戰(zhàn)。第三,為調節(jié)好發(fā)展和安全之間的沖突,構建以人民為中心的智能社會法律秩序,對于推動人工智能技術健康有序發(fā)展具有重要意義。
■百度公司副總裁吳夢漪:
結合《生成式人工智能服務管理辦法(征求意見稿)》的幾個看法:一是將開放API和通過API調取功能認定為內容生產者可能提高了對合規(guī)義務的要求。二是將生成式人工智能認定為具有輿論屬性和社會動員能力的互聯(lián)網(wǎng)信息服務,可能泛化了適用范圍。三是從實踐的角度,內容生成的準確性與生成式人工智能技術原理存在沖突。因此,初始階段監(jiān)管層面的重點應從追求內容準確性轉向對違法利用行為的打擊。四是需要辯證看待數(shù)據(jù)的好壞。生成式人工智能具有一定的創(chuàng)作性,海量的訓練數(shù)據(jù)有利于提高技術的發(fā)展速度,希望監(jiān)管的重點在于生成式人工智能產品的質量,不宜對訓練數(shù)據(jù)和技術路線做過于詳盡的規(guī)定。五是綜合考慮生成式人工智能服務的人機對話特點,簡化對真實身份信息要求的規(guī)定。
■騰訊研究院首席數(shù)據(jù)法律政策專家王融:
對生成式人工智能的規(guī)制的幾個建議。第一,生成式人工智能可能是未來新的信息時代最為基礎的工具,超越了單純的互聯(lián)網(wǎng)信息服務,應以全新視角去看待。第二,制定規(guī)章是必要的,但是目前法律規(guī)范本身可能還需要進一步討論新的問題;輸出信息的質量方面有很強的市場自驅力;而大模型時代的底層網(wǎng)絡安全和數(shù)據(jù)安全,發(fā)展更為優(yōu)先。第三,三個月的模型優(yōu)化訓練期限在實踐中難以落地,不妨考慮其他多種技術手段。最后,在AI發(fā)展領域,風險浮現(xiàn)是漸進式的,市場主體和監(jiān)管主體應在共同目標和接近的立場下協(xié)同解決問題。
■中國人民大學法學院教授王利明:
應正視ChatGPT引發(fā)的問題,思考法律上如何積極應對。首先,面對生成式人工智能引發(fā)的人格權和知識產權方面的問題,立法過于超前可能會阻礙技術的發(fā)展和創(chuàng)新,通過發(fā)布管理辦法或制定相關措施積累經(jīng)驗,條件成熟后再立法可能是相對穩(wěn)妥的辦法。
對ChatGPT引發(fā)的侵權問題,提出五點建議:一是在價值取向上積極支持人工智能產品的開發(fā)。二是ChatGPT不同于自動駕駛等一般產品,讓服務提供者承擔無過錯責任會阻礙技術發(fā)展,不符合鼓勵技術創(chuàng)新的價值取向。三是可借鑒醫(yī)療事故責任的減免規(guī)則,因技術水平限制而導致難以消除的漏洞時,可以適當減輕甚至免除服務提供者的責任。四是加強和強化服務提供者對個人隱私信息的安全保障義務。五是關于ChatGPT的幻覺回答導致的侵權責任分配問題,應區(qū)別平臺大規(guī)模生成與用戶惡意誘導的情形。
■中國社會科學院大學副教授劉曉春:
從四方面提出監(jiān)管的建議。一是監(jiān)管必要性,若在新技術場景下,原有體系能解決大部分問題,就缺乏專門規(guī)制的必要性。生成式人工智能的重要風險點在內容層面,如果生成的內容沒有傳播,是否存在風險仍存在疑問;如果已經(jīng)傳播,則要考慮原有的治理系統(tǒng)是否能夠解決問題。二是監(jiān)管有效性,其核心問題是公權力對產業(yè)的治理或干預是否能真實、有效地達到基于監(jiān)管必要性的風險治理目的。三是結合我國現(xiàn)有產業(yè)背景考慮監(jiān)管技術的應用場景。未必每個企業(yè)都研發(fā)大模型,但是在應用層面具有各自極大的拓展商業(yè)的可能性,應為應用層面的商業(yè)模式留出發(fā)展的空間。特別是在對內容生產者的定義上不應拓寬。四是從立法基礎的角度考慮協(xié)調性。比如,在實名制問題上與網(wǎng)絡安全法相協(xié)調,在算法的評估和備案問題上,也應基于現(xiàn)有的機制協(xié)調。
■對外經(jīng)濟貿易大學副教授許可:
《生成式人工智能服務管理辦法(征求意見稿)》與之前的法律、現(xiàn)有的實踐和技術存在四大矛盾。第一,新法和舊法的矛盾?!痘ヂ?lián)網(wǎng)信息服務深度合成管理規(guī)定》中的深度合成技術和《生成式人工智能服務管理辦法(征求意見稿)》中的深層次人工智能技術之間有何異同尚不明確,未來執(zhí)法過程中可能產生矛盾。第二,域外效力和屬地管轄之間的矛盾?!渡墒饺斯ぶ悄芊展芾磙k法(征求意見稿)》涉及的內容超出了《個人信息保護法》覆蓋范圍,部門規(guī)章是否能設立超出上位法的域外管轄權存在疑問。第三,網(wǎng)絡信息內容安全管理和通用技術規(guī)制之間的矛盾。將通用性的人工智能限制在網(wǎng)絡信息內容上,可能出現(xiàn)規(guī)制工具和規(guī)制目標的不匹配。實際上,在不同的場景下,生成式人工智能的風險因形態(tài)而異,如何判斷其風險,需要模塊化判斷。第四,全流程安全要求和技術內在特征的矛盾。全流程的管理和生成式人工智能的特性不符,例如,預訓練數(shù)據(jù)的合法性難以實現(xiàn),數(shù)據(jù)與最后信息生成之間也并不存在直接映射關系。
■對外經(jīng)濟貿易大學副教授張欣:
在監(jiān)管對象上,我國的人工智能企業(yè)此前多集中在應用層,在基礎層和技術層分布相對較少。在監(jiān)管方式上,面向生成式人工智能的產業(yè)鏈特點,可以提升監(jiān)管的互操作性、一致性。在監(jiān)管創(chuàng)新上,一方面應注重監(jiān)管的韌性,另一方面應積極探索以模塊化監(jiān)管為代表的新型監(jiān)管方式。對《生成式人工智能服務管理辦法(征求意見稿)》的四點修改意見:第一,進一步厘清第2條對“生成式人工智能”的定義。第二,面向產業(yè)鏈特點明確第5條中“產品生成內容生產者”的范圍,不宜通過一刀切的方式讓所有行為主體都承擔產品內容生產者的責任。第三,第7條關于預訓練數(shù)據(jù)和優(yōu)化訓練數(shù)據(jù)來源的準確性問題可以適當調整,只要在可接受的技術水平條件下,組織和企業(yè)履行了相應義務,可認為符合人工智能準確性原則。第四,第15條關于防止再次生成的期限和防止再次生成的方式聚焦于技術過程,目前的技術手段上難以達成,可以轉換為從結果監(jiān)管的角度防止被用戶舉報的不合法合規(guī)的內容再次出現(xiàn)。
■中國人民大學法學院教授萬勇:
在生成式人工智能對著作權法合理使用制度的挑戰(zhàn)方面,生成式人工智能可能涉及著作權法上的復制權、演繹權和向公眾傳播權。但是,目前的合理使用類型難以適用于人工智能技術。其次,為了解決相關的問題,應人工智能產業(yè)發(fā)展的合理使用制度改革,主要有兩種解決方案:一是重塑理論基礎,提出“作品性使用”與“非作品性使用”的概念,為了數(shù)據(jù)挖掘目的而使用作品,只有部分情形屬于“非作品性使用”;二是改造制度規(guī)范,包括增設具體例外條款或引入開放式例外條款。建議修改《著作權法實施條例》,引入專門例外,兼顧產業(yè)發(fā)展和著作權人的權利。
■中國人民公安大學法學院教授蘇宇:
處于追趕中的國內生成式人工智能在風險治理之外也非常需要制度支持。生成式人工智能大模型面臨算法解釋難、算法審計難、算法標準形成難、算法影響評估難、算法認證難等問題?!渡墒饺斯ぶ悄芊展芾磙k法(征求意見稿)》的主要考量問題是信息內容安全問題,在安全保障方面設計了“六重疊加”的機制,包括輸出端的生成結果控制、輸入端的數(shù)據(jù)來源和數(shù)據(jù)信息內容限制、擴展的內容生產者責任、用戶舉報與主動監(jiān)管結合、寬泛的信息提供義務、與算法推薦和深度合成等已有立法的有限銜接等。其中部分機制存在不同程度的安全冗余。除此之外,還有需要充分考慮的治理要點,包括生成代碼的單獨歸類、訓練數(shù)據(jù)的必要區(qū)分、輸出結果的類型提示、數(shù)據(jù)來源合法性的具體界定等??傮w來說,對生成式人工智能的法律治理,大幅度降低無效或低效風險冗余應當是機制設計的重要目標。
■中國信通院高級工程師程瑩:
生成式人工智能第一大特點是通用目的性。作為新底層基礎平臺,AIGC供應鏈被拉長,研發(fā)者是否應承擔責任,研發(fā)者、平臺方、B端用戶、C端用戶等如何分擔責任成為關鍵問題。征求意見稿第5條應對各個主體進行精細劃分。第二個特點是內容生成性,帶來了知識產權、虛假信息等問題。未來生成式人工智能代表了知識調用方式的變遷,將掌握絕大多數(shù)信息來源,相較于深度合成的重點標識義務,負有更高算法評估、自我審查等義務。然而,一刀切要求訓練數(shù)據(jù)和生成結果的真實性可能與生成式人工智能的技術本質存在一定沖突。第三個特點是數(shù)據(jù)依賴性,這是人工智能一直以來的典型特征,但是呈現(xiàn)了新的形式,例如中文語料庫輸入不足帶來的文化偏見、數(shù)據(jù)虹吸效應帶來的數(shù)據(jù)泄露風險等,相關法律義務應注意保持與上位法要求的一致性。
■中國科學技術信息研究所助理研究員劉鑫怡:
英國的監(jiān)管框架是基于人工智能應用場景來規(guī)范人工智能應用,而非規(guī)范人工智能技術,并不為整個行業(yè)或技術設定規(guī)則或風險級別。在監(jiān)管依據(jù)上,在不確定的技術應用和治理中探索可量化、可定性的成本收益及影響,這對我國監(jiān)管政策的出臺有啟發(fā)意義。在目前的大模型監(jiān)管上存在難點。主要包括三方面:一是技術的局限性導致目前難以達到治理的高標準;二是大模型治理的方式和限度難以把握;三是目前多樣化治理工具沒有完全發(fā)揮作用。隨著多模態(tài)大模型的研發(fā)和廣泛應用,未來的風險問題會逐步深化。建議在統(tǒng)籌發(fā)展與安全的基礎上,構建全生命周期的差異化監(jiān)管機制,加強人工智能重點領域關鍵環(huán)節(jié)監(jiān)管。同時倡導“以技治技”,開展安全可信技術的治理。
綜上所述,關于《互聯(lián)網(wǎng)信息服務算法備案》,看生成式人工智能算法規(guī)制的思路分享文章,如果您需要辦理互聯(lián)網(wǎng)信息服務算法備案或者想更多咨詢問題,請聯(lián)系大通天成在線客服。也可以撥打我們的電話13391522356。