国产欧美日本一区二区三区,国产精品9999久久久久仙踪林,国内视频在线精品,成人污污www网站免费丝瓜

郵件系統:
用戶名: 密碼:
2025年05月10日 星期六
2025年05月10日 星期六
位置: 首頁 》《習近平法治思想研究與實踐》??? 》學習貫徹習近平法治思想 》專題報道 》2025年 第11期 03月
新質生產力視野下的人工智能立法研究

時間:2025-05-07   來源:民主與法制周刊  責任編輯:陳聰


新質生產力視野下的人工智能立法研究

付子堂


  習近平總書記創造性地提出發展新質生產力,為高質量發展注入全新動力。其中,人工智能作為促進新質生產力發展的重要引擎,在深刻影響生產力和生產關系的同時,也給現有法律關系、法律體系帶來了多重層面的風險與挑戰。如何解構人工智能的新質生產力屬性,從新質生產力的視角剖析人工智能所面臨的法治挑戰,并通過立法因地制宜地推動人工智能發揮新質生產力作用,成為一項需要深入研究的重要課題。

  

  一、新質生產力視野下加強人工智能立法研究的重要性和必要性

  2023年9月,習近平總書記在黑龍江考察期間首次提出“新質生產力”這一重要概念,指出“整合科技創新資源,引領發展戰略性新興產業和未來產業,加快形成新質生產力”。這是在繼承創新馬克思主義生產力理論基礎上,結合新時代中國特色社會主義實際提出的原創性概念,由技術革命性突破、生產要素創新性配置、產業深度轉型升級而催生,以勞動者、勞動資料、勞動對象及其優化組合的躍升為基本內涵,以全要素生產率大幅提升為核心標志,特點是創新,關鍵在質優,本質是先進生產力。2024年1月31日,習近平總書記在二十屆中央政治局第十一次集體學習時強調,“新質生產力是創新起主導作用,擺脫傳統經濟增長方式、生產力發展路徑,具有高科技、高效能、高質量特征,符合新發展理念的先進生產力質態”;“要以科技創新推動產業創新,特別是以顛覆性技術和前沿技術催生新產業、新模式、新動能,發展新質生產力”。黨的二十屆三中全會通過的《中共中央關于進一步全面深化改革、推進中國式現代化的決定》要求,健全因地制宜發展新質生產力體制機制;完善推動新一代信息技術、人工智能等戰略性產業發展政策和治理體系;推動制造業高端化、智能化、綠色化發展;加快構建促進數字經濟發展體制機制;建立人工智能安全監管制度;完善生成式人工智能發展和管理機制。

  2025年3月5日,習近平總書記在參加他所在的十四屆全國人大三次會議江蘇代表團審議時指出,科技創新和產業創新,是發展新質生產力的基本路徑。近年來,隨著科技創新的持續推進,互聯網、云計算、大數據、人工智能、區塊鏈、元宇宙等現代新興信息技術迅速發展,已成為新質生產力的代表,正催生著新一輪科技革命和產業變革,由此推動科技法治與科技法學的新發展。其中,人工智能作為數字科技領域中最具代表性的核心技術,是促進新質生產力發展的重要引擎。同時,隨著人工智能產業對生產力和生產關系的深刻影響和深度改造,也加劇了技術發展與現有法律關系、法律體系之間的矛盾。早在2017年,國務院印發的《新一代人工智能發展規劃》就指出,“人工智能是影響面廣的顛覆性技術,可能帶來改變就業結構、沖擊法律與社會倫理、侵犯個人隱私、挑戰國際關系準則等問題,將對政府管理、經濟安全和社會穩定乃至全球治理產生深遠影響”,并提出“初步建立人工智能法律法規、倫理規范和政策體系”。當前,人工智能技術處于快速發展期,治理體系正在加速構建完善。作為新質生產力的人工智能既帶來了法治風險,也帶來了法律制度和規則更新迭代的契機。

  

  二、人工智能作為新質生產力帶來的法律挑戰

  2021年,聯合國教科文組織大會將人工智能定義為:整合模型和算法的信息處理技術,這些模型和算法能夠生成學習和執行認知任務的能力,從而在物質環境和虛擬環境中實現預測和決策等結果。美國斯坦福大學教授約翰?麥卡錫將其定義為:人工智能是制造智能機器,特別是智能計算機程序的科學和工程。人工智能作為引領未來的戰略性技術,具有自主智能屬性、通用賦能屬性、要素撬動屬性,高度契合新質生產力內涵。人工智能重塑了既有的生產方式與生產關系,技術發展的速度超出了社會預期,由此產生了安全、倫理、規則等多重層面的法律問題,傳統法律制度和法治體系逐漸顯現出諸多不適應,社會治理體系也亟需完善。加強人工智能立法,首先要對人工智能的獨特屬性形成清晰明確的認識,制定合理有效的法律法規來規范引導人工智能的科學有序發展,進而推動新質生產力發展。

  (一)安全問題

  當今人工智能的發展以海量的數據資源為支撐,不僅涉及數據潛在價值的發掘,還包括通過技術創新和智能算法的應用來實現數據的價值創造,并最終將這些價值轉化為經濟增長和社會發展動力。人工智能催生出新產業新業態,推動生產力向更高級、更先進的質態演進。但在處理數據資源過程中,也帶來了諸如數據泄露、深度偽造、事故責任等一系列不容忽視的安全問題,給國家安全、社會秩序和網絡空間安全帶來嚴峻挑戰。

  一方面,輸入的數據存在一定隱患。數據本身可能潛藏問題或有被篡改的風險,一定程度上源于數據收集過程中存在偏差、不準確或不完整,或者數據標注時有錯誤或不一致性。這可能導致原始數據質量下降,影響輸入數據的可靠性,致使人工智能分析應用數據的結果不準確,引起原始數據與衍生數據的歸屬權、控制權和使用權的界定難題。另一方面,通過深度學習和大數據處理來構建人工智能模型時,由于數字技術缺陷、人為操作失誤或黑客惡意攻擊等原因,數據造假、算法竊取、軟件漏洞等安全隱患易發頻發。此外,人工智能還可能危及人身安全。例如,以分析患者的醫療數據來提供個性化治療方案的醫療機器人、以處理道路交通數據來提供出行服務的自動駕駛汽車等智能設施,當其算法運行程序出現漏洞或安全系統遭到惡意破壞時,容易引發重大安全事故。因此,保障作為新質生產力的人工智能在安全有序的環境下發展,是貫徹新發展理念的必然要求,更是維護國家安全、網絡與數據安全的應有之義。

  (二)倫理問題

  隨著新型生產關系的構建,人工智能帶來的倫理問題正逐漸沖擊已有人類主導的法律秩序、社會秩序,人機之間的界限逐漸模糊,由此帶來與個人、社會、環境等多方面相關的倫理風險,應制定科學合理的法律法規,實現人工智能穩定應用,保障新質生產力發展。

  首先,個人層面的人工智能倫理問題。人工智能在實踐中會采集、模仿人類的聲音聲紋、面部表情、肢體動作、知識作品等,并借助光學技術、聲音控制、人臉識別、深度思維等技術,提升技術服務水平,完成自身研發升級。但在這一過程中,若未經他人允許而進行采集模仿或利用他人肖像、隱私等人格權客體,即存在一定的安全風險和權利爭議。此外,基于人工智能可不受他人干擾而獨立自主行為的屬性特征,其廣泛應用會在一定程度上限制人類的自主權,需要立法者慎重考慮是否承認其法律主體地位。其次,社會層面的人工智能倫理問題。人工智能借助算法實際操作運行時,既有可能自主調整各項參數和規則,也有可能利用算法歧視、算法合謀等方式侵害用戶權益,致使“算法黑箱”的形成,由于不易察覺或舉證且缺乏程序透明度,難以保證公民的知情權和監督權,挑戰社會公平正義。此外,由于勞動者使用人工智能的能力各不相同,人工智能的廣泛發展可能會導致“數字鴻溝”,引發結構性失業,激化社會矛盾,影響社會穩定。最后,環境層面的人工智能倫理問題。2021年11月24日,聯合國教科文組織第41屆大會通過了《人工智能倫理問題建議書》,強調“在人工智能系統的整個生命周期內,會員國和工商企業應評估對環境產生的直接和間接影響”。人工智能的發展應用依賴大量的硬件設備,以高能耗為運行特征。因此,人工智能系統在其生命周期內,通常會消耗巨大的自然資源,如不加規制便會造成嚴重的環境污染,不利于可持續發展。

 ?。ㄈ┮巹t問題

  2024年3月21日,聯合國大會通過首個關于人工智能的全球決議《抓住安全、可靠和值得信賴的人工智能系統帶來的機遇,促進可持續發展》,已認識到人工智能規制不足所帶來的風險。決議指出,“人工智能系統,其生命周期包括前期設計、開發、評價、測試、部署、使用、銷售、采購、運行和淘汰等階段”“不當或惡意地設計、開發、部署和使用人工智能系統——例如在沒有適當保障措施或不符合國際法的情況下——構成風險”。

  一方面,在設計開發環節,人工智能的算法、數據、算力三要素存在規制不足問題。算法作為人工智能的核心技術,具有自主學習、輔助決策、配置社會資源等作用,憑借機器優勢、架構優勢和嵌入優勢演化為新型的準權力,如果缺乏規制會出現新的權力濫用。例如因算法的高度復雜技術特征導致權力不透明的“算法黑箱”,又如利益驅使下算法通過數據分析導致對特定群體的“算法歧視”等。而算法的基礎是大數據,是人工智能的主要社會資源和新型生產要素,在數據確權、數據安全、數據流通規則等方面需要完善。另外,服務于算法和數據的硬件、軟件基礎算力,依賴于能源、資源、人力等市場要素的配置,算力作為數字時代的新型生產力對推進“東數西算”戰略的落實至關重要,其發展需要規則予以保障。另一方面,在部署應用環節,人工智能的通用賦能屬性,使其對人類社會產生廣泛而深遠的影響。自動駕駛汽車、智能診療系統、人形機器人、生成式人工智能等具體應用不斷出現,產生了全新的權利義務關系。其中,自動駕駛車輛存在道路交通事故的歸責對象爭議問題,智能診療系統存在自主性、透明性、安全性不足以及醫療事故歸責問題。隨著人工智能機器人的出現,“機器犯罪”對刑法規制體系帶來沖擊,傳統的刑法構成要件難以辨析責任承擔,以及如何區分研發者、使用者與人工智能致害結果的因果關系問題。另外,目前人工智能已經進入執法、司法領域,給法律程序、訴訟參與人制度、訴訟權利義務關系帶來了許多不容忽視的問題。

  

  三、強化人工智能發揮新質生產力作用的立法保障

  人工智能是新一輪科技革命和產業革命的核心引擎,是推動新質生產力快速發展的重要驅動力,但亟待通過制定法律法規來規范和引導人工智能技術的進步,以“善治”促“善智”。2025年3月11日,第十四屆全國人民代表大會第三次會議審議批準了《全國人民代表大會常務委員會工作報告》,在今后一年的任務中明確提出,圍繞人工智能、數字經濟、大數據、自動駕駛等新興領域加強立法研究。我國人工智能制度設計和立法實踐,一方面要具備前瞻性和先進性視角,在推動出臺具有中國特色的人工智能法的同時,靈活修改完善相關法律規則,發展具有中國特色的人工智能治理體系,在人工智能的國際治理競爭與合作中發出中國聲音、提出中國方案;另一方面要具有國際視野,統籌推進國內法治和涉外法治,促進人工智能立法與國際接軌,加強人工智能領域的國際交流與合作,推動構建開放包容的全球人工智能治理體系。

  (一)當前國際人工智能立法規制情況

  加強人工智能治理已成為當今世界各國面臨的共同課題。前述聯合國大會決議、聯合國教科文組織的建議就是人工智能規制倡議性文件。2023年10月,美國發布的《關于安全、可靠、可信地開發和使用人工智能的行政命令》,為人工智能安全和保障建立了新標準。歐盟理事會于2024年5月正式批準全球第一部人工智能法案,以人工智能技術風險分級管理為核心,為人工智能治理提供了高標準規則框架。歐盟人工智能法強調立法的留白,重點關注高風險人工智能,注重數據合規、個人數據保護等。美國的行政命令僅要求能力超過GPT-4的超大能力大模型強制披露必要信息。英國《支持創新的人工智能監管方式》白皮書指出,由于通用大模型涉及領域的廣泛性,難以將其納入任一監管機構的職權范圍,應加強中央層面的監管協調。新加坡將建設全球人工智能解決方案中心、參與全球人工智能技術規則制定、形成多方共贏的合作模式,作為人工智能發展戰略的三個核心方向??傮w看,多數國家對人工智能立法比較慎重,呈現出保守傾向。由于人工智能技術發展已經成為政治、經濟和技術“三位一體”的復合型問題,各國需要協作面對。但美國高度警惕我國的技術追趕,出臺了大量針對中國人工智能領域的封鎖、制裁和懲罰性舉措。鑒于此,我國人工智能立法應當積極應對風險挑戰,承擔大國責任,展現大國擔當,探索全球人工智能法治的思路和方案,引領全球人工智能產業走普惠、有益、安全的發展道路。

 ?。ǘ﹪鴥纫暯窍氯斯ぶ悄芰⒎ㄕ雇?/span>

  第一,當前國內立法概況。我國人工智能的發展走在世界前列,也在不斷探索對人工智能的立法規制。2023年10月18日,習近平主席在第三屆“一帶一路”國際合作高峰論壇開幕式上宣布中方提出《全球人工智能治理倡議》,圍繞人工智能發展、安全、治理三方面系統闡述了人工智能治理中國方案,主要包括堅持以人為本、智能向善,堅持相互尊重、平等互利,建立風險等級測試評估體系等。近年來,我國相繼出臺了網絡安全法、數據安全法、個人信息保護法等法律,為人工智能的發展提供了基本法律框架。2025年3月7日,國家互聯網信息辦公室等四部門聯合發布《人工智能生成合成內容標識辦法》,將于2025年9月1日起施行。我國人工智能立法,應當從中國本土實踐特色出發,秉持人本理念,堅持發展與安全并重的系統思維,既注重人工智能帶來的創新和進步,也重視可能帶來的風險和挑戰;既總結既往網絡立法經驗,又合理借鑒國外法律和國際規則中的制度資源,適應國際合作與競爭。通過科學、全面的立法,構建具有中國特色的人工智能法治體系。

  我國人工智能立法可以在“集中立法+要素立法+場景立法(1+3+X)”的模式下有序推進。一方面,應當出臺一部具有中國特色的人工智能法,為依法加強人工智能治理提供基礎規則,保障新質生產力下新型勞動關系與要素在安全的基礎上不斷發展。在此過程中,需要充分認識人工智能法“公私交融”的特征,避免陷入私法規范或公法規制的單一路徑。同時,還要看到人工智能不僅具有技術性還具有社會性,人工智能的綜合立法應包含人工智能的權利法、責任法、市場法、監管法和促進法,構建自上而下與自下而上的雙向治理范式。另一方面,人工智能的集中立法固然能從整體上明確原則、提供指導、提煉共識、挖掘共性、劃定紅線,但不應寄希望于畢其功于一役。一是人工智能產業的應用廣泛,不同應用場景的人工智能風險類型與發展挑戰各不相同,集中式的立法無法面面俱到。二是算法、算力、數據的共同作用是新一輪人工智能熱潮的根本原因。在人工智能集中立法的同時,還需要結合人工智能的要素與場景進行分散式的補充立法,才能適應人工智能作為新質生產力更新迭代迅速、技術不確定、風險難預見等特征。要在人工智能法的基礎上,結合網絡安全法、數據安全法、個人信息保護法等已有智能要素立法,完善數據財產法、算法問責法、算力安全法等智能要素法的制定;同時,推動自動駕駛汽車、醫療人工智能、人形機器人等應用場景的專門立法,破解不同人工智能應用形式面臨的法律挑戰,最大程度激活新質生產力的潛能。

  第二,人工智能立法理念。人工智能技術的深入研發與應用,不僅涉及國家利益和社會公共利益,還涉及私人利益。對人工智能進行法律規制,是一項牽一發而動全身的系統工程。人工智能立法應以增進人類共同福祉為目標,以保障社會安全、尊重人類權益為前提,以規范人工智能在法律、倫理和人道主義層面的價值取向為宗旨,堅持平等互利,促進智能向善。

  立法目標。人工智能法的制定,應“以增加社會公共福祉為目標”,既保障安全又強調發展,在參考既往科技領域立法的基礎上,結合人工智能實踐中的問題,前瞻性地涵蓋適用范圍、法律原則、法律義務、法律責任等方面內容,保障人工智能發揮新質生產力作用。

  法律價值原則。堅持以人為本、智能向善,應將道德、倫理、公平、自由等價值因素納入人工智能法的制定考量中,闡明人工智能法治實踐應當遵循的基本原則,包括人本原則、安全原則、發展原則、公平原則、透明原則等,確保人工智能始終朝著有利于人類文明進步的方向發展。

  法律適用范圍。立法應涵蓋人工智能設計研發、提供、使用等生命周期各環節,實現對人工智能法律風險的全生命周期治理。在人工智能實踐過程中,科學劃定應當重點監管的高風險領域,其他低風險領域可以采取適當的放松政策,確保監管的精準性和有效性,進一步激發市場活力和創新動力。

  權利義務設置?;谌斯ぶ悄墚a業鏈中主體的多樣性與復雜性,可按照不同活動特點區分人工智能的研發者、提供者、使用者,合理分配權利義務,包括但不限于保障人工智能安全性、公平性和可解釋性,進行科技倫理審查和安全審查等,確保所承擔的義務與潛在風險相匹配,堅決維護安全底線,保障人工智能技術健康發展。

  第三,人工智能立法具體規則。堅持分級治理理念。人工智能更新迭代快、發展潛力大,實行風險分類分級的動態監督管理,能夠保障人工智能的安全性和合規性。同時,還可以提高人工智能治理的適配性與精確度,避免“一刀切”帶來的安全與發展的失衡,激勵人工智能產業創新,促進其健康、合規、可持續發展。應當全面考慮各類人工智能對新質生產力發展的重要程度,高度關注其發展過程中可能帶來的潛在風險,審查其對國家安全、社會利益或者個人合法權益可能造成的危害,定期評估、調整現有的風險分級標準,針對性地制定監管措施。同時,對于具有高風險的人工智能,應當構建人工智能“守門人”規則,確保風險管理職責到位。

  完善人工智能責任規則。目前,人工智能已在多個應用領域引發事故、造成損害侵權等,產生了責任分配問題,比如自動駕駛汽車失控導致交通事故、生成式人工智能著作權侵權等,亟需完善相關責任規則。一是適度的罰款制度。對于嚴重違法開展人工智能研發、提供、使用活動的,應當綜合考慮行為人的規模、主觀過錯、行為后果、獲利情況等進行罰款,以便起到威懾作用。二是合理的侵權責任規則。針對人工智能風險事故、損害侵權等情況,應當以主客觀因素、因果關系為基礎,分配不同法律主體的責任。既要完善人工智能產品責任,以便應對研發生產端的風險致害問題,解決生產者、銷售者一方的責任,又要完善應用端的提供者、使用者一方的責任規則。三是適當的免責規則。為推動人工智能產業的發展與應用,鼓勵企業采取合規措施預防風險,確保人工智能的良性發展。同時,對于免費開源人工智能進行適當的責任豁免,以便鼓勵知識共享與技術創新。此外,對于以生成式人工智能為代表的人工智能服務,應當更新“避風港”規則,合理界定提供者與使用者之間的責任。

  構建新型產權規則。一方面,通過法律的形式明確數據產權規則,構建新質生產力作為新型勞動對象的人工智能要素分配規則,合理確定數據在獲取、處理、流通過程中的權利歸屬,完善和細化數據產權的結構性分置規則。另一方面,對于算法等新型勞動資料,可以探索以專利權、新型知識產權等規則為代表的確權和權利保護路徑。此外,對于生成式人工智能生成內容的權利確認和歸屬,則需要更新現行著作權法中的獨創性認定標準、“思想表達二分法”和合理使用、風險負擔以及責任承擔等規則,積極推動知識產權制度的理論創新、功能發展和機制優化,構建新質生產力下人工智能新型生產關系中的產權規則,重新定義專利、外觀設計、文學和藝術作品等固有的知識產權概念。

  構建風險防控機制。鑒于人工智能技術及其廣泛應用會帶來“算法黑箱”、隱私泄露、“大數據殺熟”等風險隱患,主管部門應當加強與企業、組織、科研機構以及公眾之間的合作和溝通,收集分析人工智能安全信息,按照危害程度、影響范圍等因素對安全事件予以準確分類分級,制定合理且切實可行的處理方案,構建風險監測預警和信息通報制度。同時,還應引導企業和行業組織進行自我監管,要求科研機構協助監督和識別潛在風險,幫助公眾提升人工智能風險防范意識,確保對既有風險和潛在風險的及時處置和有效防范。

  建立統籌協調治理機制。實現人工智能有效治理,應以統籌發展與安全為目標,以統籌倫理、立法、標準等治理板塊為核心,以統籌既有治理經驗及資源與人工智能發展實際問題為切入點,建立并完善國家層面的人工智能統籌治理機制,定期開展人工智能技術監測、評估、審計工作,調查收集人工智能發展和治理情況,統籌設置國家層面的人工智能管理機構,以提供強有力的組織與制度保障。

  {本文系中國法學會2024年度習近平法治思想研究專項委托課題“加強因地制宜發展新質生產力的法治保障”〔CLS(2024)WT–11〕的部分研究成果}

  

  作者:西南政法大學教授,重慶市人大法制委員會主任委員


主站蜘蛛池模板: 南靖县| 任丘市| 汝州市| 昌乐县| 错那县| 那坡县| 巢湖市| 兴和县| 克拉玛依市| 桑植县| 天气| 新野县| 蓝田县| 南和县| 巴彦淖尔市| 民乐县| 客服| 阿克| 乃东县| 新平| 武定县| 高邑县| 博湖县| 炉霍县| 双柏县| 武汉市| 呼和浩特市| 醴陵市| 新乐市| 仁怀市| 黄骅市| 沈丘县| 容城县| 湖州市| 泸溪县| 乐至县| 八宿县| 西吉县| 楚雄市| 本溪| 和静县|

全文
搜索

關注
微信

關注官方微信

關注
微博

關注官方微博

網絡
信箱