• <samp id="sgkyk"><pre id="sgkyk"></pre></samp>
    
    

    舊版網站入口

    站內搜索

     雷磊:新科技時代法理學的回應與堅守

    雷磊2025年03月26日15:39來源:中國社會科學報國家社科基金專刊

    作者系國家社科基金重大項目“應對新一輪新科技革命的法治體系完善與基本法理研究”首席專家、2024年度《國家哲學社會科學成果文庫》入選者、中國政法大學錢端升講座教授

    以人工智能與大數據結合為標志的新科技時代,預示著“算法社會”的到來。如果說傳統科技是一種輔助性力量,那么新科技則是一種超能型力量,尤其是具備深度學習能力的生成式人工智能的誕生,進一步強化了這種力量。面對新科技時代帶來的深刻變化,作為實踐知識的法學有必要作出及時回應。與主要應對具體法律問題的部門法學相比,為整個法學提供基本范疇、方法和價值的法理學,對新科技的回應具有更為深遠的影響,因為它可能觸及法學知識體系的基礎邏輯變革。

    法學基本范疇的拓展與更新

    法理學的首要任務在于為所有的法學分支學科提供共同語匯,即法學基本范疇。近代法學的基本范疇形成于19世紀中葉的工業社會,作為其基礎的核心形象是獨立甚至孤立的個人。在新科技時代,這一形象將發生顯著變化,法學基本范疇的內涵也將隨之拓展。

    以“法律行為”為例,傳統法理學將其定義為基于個人意思表示而產生法律效果的行為。行為人首先形成內心的特定意思,再通過外在表示使其產生法律效力。例如,在傳統股票交易中,賣方以特定的價格拋出股票,買方在特定價位上買入股票,雙方就單筆交易達成合意。然而,在算法交易中,計算機的算法預先決定了在特定交易價格上買入或是賣出股票,無需就每一筆的交易都形成關于買入或賣出的具體“意思”,也無需與交易對方達成“合意”。事實上,算法無法產生類似于自然人內心的那種意思,因為“意思”屬于心靈的能力。盡管如此,算法可以通過預設規則作出一般化的“表示”。今后很多反復出現的、程式化的社會交往活動,都可以由算法來主導而不影響其法律效果。這類活動注重外部安全和可預測性,能夠被程式化處理。它們無需單個的特殊“意思”,只需一種概括性的“表示行為”就足夠了。

    在傳統法理學中,權利以個人為主體,是個人為了保護自身利益而享有的一種法律手段。在新科技時代,個人信息的法律保護成為焦點,而個人信息具有顯著的公共屬性。個人信息本身只是能夠識別特定個人的事實或記錄,雖然與個人相關,但不足以使個人對該數據具有支配利益。在網絡化、數據化、智能化的時代,個人數據不僅成為社會治理、企業管理創新和改善的資源,也成為科學、文化、藝術創新與進步的源泉。賦予個人對個人數據的排他性控制權,與人類社會進步發展的制度基礎相悖。但賦予信息主體對侵害個人信息行為的賠償請求權和訴權,的確更有利于個人信息的有效保護。個人仍然是權利的主體,但權利的基礎不再局限于個人利益,而在于或同時在于對公共利益的保護。因此,新科技時代為重新思考權利的傳統見解提供了契機。社會存在決定社會意識,科技帶來的社會關系的變革終將改變作為社會意識核心的“人的形象”,也會或快或慢地改變基于特定人的形象基礎上的法學基本范疇。

    司法裁判理論的演進與堅守

    法理學的一個重要分支是法學方法論,即關于司法裁判方法模式或法律推理的理論。在建設“數字法院”和“智慧司法”的背景下,這一領域受到大數據和人工智能的深刻影響。后者不僅帶來了司法裁判技術的更新,也對司法裁判的模式和觀念的傳統理解造成了沖擊。

    傳統法理學將司法裁判視作法律推理的過程,典型的形式是“三段論”。裁判以法律規則為大前提,以案件事實為小前提,通過演繹推理得出必然性的裁判結論。然而,法律規則總是存在例外,也可能與同一法律體系中的其他規則相沖突。由于法律體系的規范數量十分龐大,不同規則總是分散在法律體系的不同部分,法官有時難以發現例外或沖突。大數據與人工智能的結合,顯著提高了通過個案發現同一法律體系中規則沖突及規則例外,尤其是隱性例外的可能性。一些法律智能系統內置海量法律法規,利用自然語言處理和語義分析技術,支持多維度檢索,如通過案由、法條關鍵詞、裁判規則,可快速匹配相關法條和司法解釋,并智能推薦相關性結果。

    除了基于法律規則的推理外,司法人工智能還擅長基于案例的推理。許多智能輔助系統能夠支持全樣本案例庫的智能檢索和裁判預測。通過分析歷史判例和法律條文,系統可為法官推薦相似案例及其裁判理由,并生成初步判決建議。然而,將人工智能方法運用于案例推理仍存在困難。即便人工智能系統能通過深度學習分析歷史數據,仍無法解決類比推理的關鍵問題,即如何證明待決案件與案例之間存在“法律上的相關相似性”。人工智能推理只能建立基于形式邏輯的技術化推理模式,而法官的推理往往涉及對競爭性價值和原則的取舍,涉及法政策學上的權衡。這凸顯了人工智能在價值認知上的短板:它只能建立鏈接,卻無法理解其意義;它只能考慮似真性和概率,卻無法作出法律評價。即便能夠從歷史數據中挖掘出隱藏的、未“標注”的信息并建立新的鏈接,它也無法理解這些鏈接的法律意義,更無法在新案件中標注出以前從未出現過但具有法律意義的新要素。歸根到底,只有人類才能賦予法律意義。盡管人工智能在常規的案例推理中能夠提高效率和理性化效果,但在創新性的類比活動中仍存在局限。

    人工智能的技術化路線甚至會改變司法裁判的觀念本身。在傳統法理學中,司法裁判是一種追求裁判結論正確的論證和說理活動,但機器學習算法的基本邏輯在于,通過大數據分析訓練,發現人類司法裁判的內在規律,并將其應用于對未來裁判的預測。而大數據分析訓練的基礎是基于過去裁判行為,即同類案件處理的歷史數據。算法的目標并非復現法律推理,而是尋找判決中各個參數間的相關性,即通過多種自動化的預設配置,將案件事實數據與裁判結論數據關聯起來,實現最佳匹配。本質上,司法人工智能進行的是數據運算而不是論證說理,追求的是統一裁判而不是正確裁判。自動化技術是一種形式化的演算過程。如果以這種形式化的演算過程來取代人類的論證和說理活動,將在很大程度上改變司法裁判的性質。論證和說理是一種復雜的人類活動,其核心在于敏感語境下的價值判斷,這種復雜性不能也不應被機器學習算法簡化。盡管人工智能能夠輔助法官完成部分裁判工作,但司法裁判作為價值推理活動的性質卻應當得到堅守。

    基本法律價值的因應與維護

    新科技本質上仍是一種技術,但任何技術都不可避免地涉及價值問題。在新科技的發展過程中,積極影響和消極影響通常相伴而生。從積極意義上看,算法和大數據分析能夠提升法律活動中人類行為的可預測性,促進社會秩序的形成,提升法律效能。然而,新科技也會與基本法律價值發生沖突,甚至會阻礙這些價值的實現。

    在新科技時代,人的自主性需要得到更好的保護。人工智能的數據運算和機器學習讓公民能夠在多維空間擴展自身能力,例如借助機器人完成更為復雜的藝術創作。然而,這種技術也可能威脅個人的自主性,因為它削弱了個人在沒有外力操縱或扭曲現實的前提下進行自主選擇和自由生活的能力。這主要體現在兩個方面:一是數據和算法的不透明問題。人工智能系統搜集個人數據的手段和處理數據的方式往往缺乏透明度,從而形成“算法黑箱”,這將對個人的信息自決造成很大限制。二是信息繭房問題。在大數據時代,人們被各種各樣的數據追蹤和算法推薦所包圍。算法會根據個人用戶的數據留痕反復推薦同質化的內容,以迎合眼球經濟。這種商業化邏輯決定了,它只會不斷強化個人用戶既有的偏好甚至偏見,而不會致力于塑造正確的觀念,同時也削弱了個人自主改變自己觀念的可能性。因為當人們所接觸到的信息只是不斷證實他們已有觀念時,這些觀念的自我重復和強化就會潛移默化地使他們喪失辯證思考的能力。為此,法律上應建立算法透明和可解釋機制,強化對個人被遺忘權和個人信息刪除權的保護,捍衛個人自我發展和自我塑造的基本自由。

    在新科技時代,人與人的平等需要在新條件下被更好實現。從某些方面看,大數據和人工智能似乎能夠促進平等。例如,司法人工智能統一了司法裁判尺度,有助于實現“同案同判”的目標,但這只是表象。新科技至少在以下四個方面帶來不平等:一是算法掌控者(設計者、擁有者、平臺等)與普通個人用戶在信息獲取和算力資源上的不平等。二是算法的商業邏輯造成的消費者個人間的不平等,最典型的就是大數據殺熟。三是算法技術邏輯帶來的“算法歧視”和“個人信用歧視”。算法在設計或使用時可能會對不同個人或社會群體進行不合理的差別對待。在大數據決策中,個人或關聯人員過去行為的信用評級往往決定了他未來獲得的可能性和機會,如信用卡延期還款行為可能會被貼上“失信”的標簽,從而影響未來的貸款。哪怕延期還款是出于疏忽,且只發生了一次,從而導致惡性循環。四是算法的技術邏輯和商業邏輯的結合帶來的“數字鴻溝”。它造就了信息社會欠缺數字知識、不熟悉信息技術的群體,使得他們的權利得不到充分保障。對此,法律必須立足于平等法律保護條款,加強對各種算法的審查,努力消除能力差距。

    在新科技時代,安全價值也需要從各方面得到更好的保障。盡管人工智能與大數據技術能夠滿足個人和社會公眾的安全需求,例如,人臉識別、智能檢測系統、“保安機器人”這類人工智能系統可以保障公眾和個人的人身安全,然而,新科技也會對其他方面的安全價值構成嚴峻挑戰。主要體現在兩個方面:一是隱私安全。以區塊鏈技術為例,所有的數據都是公開的,同一數據會同步到多個結點,但這就可能涉及公民的隱私。大數據技術會收集和處理大量數據,收集的數據越多,對個人私生活的潛在侵擾就越嚴重。此外,大數據能夠整合不同來源的數據,構建個人畫像,從而揭露出個人不愿意公開的信息(如性取向、患有不治之癥等),甚至準確預測未來生活的細節。這會使得個人感到時刻處于“數字之眼”的監控和安排之下,從而產生安全危機感。二是數據安全,既包括個人數據安全,也包括國家數據安全。個人數據的過度收集和濫用威脅個人安全,而當數據承載著國家的政治、經濟、文化、生物等關鍵信息時,其泄露和濫用還可能危及國家主權、安全和發展利益。對此,應明文禁止算法進行全面“個人畫像”和不合比例的數據搜集,在總體國家安全觀下強化對數據安全的重視和保護,更好地維護安全價值。

    新科技時代為法理學知識體系的更新提供了前所未有的機遇。對此,法理學應在變革與堅守之間找到平衡,針對不同領域采取差異化的應對策略。在概念理論方面,部分法學基本范疇的內涵亟待與時俱進地更新。在方法理論方面,司法裁判的技術和模式將得到顯著提升,但無法完全取代以價值判斷為核心的推理。在價值理論方面,自由、平等、安全等人類珍視的價值都會受到不同程度的影響,它們在新科技條件下應更加被強調,并通過法律路徑消解新科技帶來的負面影響。

    (責編:金一、黃偉)
    精品国产一区二区麻豆| 少妇人妻无码精品视频app| 亚洲AV永久无码精品放毛片| 亚洲AV无码国产精品麻豆天美| 亚洲国产精品专区在线观看 | 亚洲成人精品久久| 国产日韩精品无码区免费专区国产| 国产一精品一AV一免费孕妇| 亚洲国产精品白丝在线观看| 亚洲av永久无码精品国产精品| 精品国产热久久久福利| 国产在线午夜卡精品影院| 精品久久久无码人妻中文字幕豆芽 | 四虎国产精品永久在线看| 久久精品亚洲日本波多野结衣| 精品日韩99亚洲的在线发布| 久久伊人精品热在75| 国产精品一区二区久久国产| 精品伦精品一区二区三区视频 | 午夜精品视频在线观看| 国产亚洲精品va在线| 久久精品成人影院| 国产精品内射久久久久欢欢| 老司机精品福利在线| 国产精品好好热在线观看| 精品亚洲成a人在线观看| 亚洲AV成人精品日韩一区| 国产精品久久久久蜜芽| 一区国产传媒国产精品| 国产精品久久久久久搜索| 久久精品国产99国产精品亚洲| 久久亚洲AV无码精品色午夜麻豆| 99ri在线精品视频| 在线精品国产一区二区| 精品无码一区在线观看| 久久99国产乱子伦精品免费| 久久精品中文无码资源站| 97精品免费视频| 国产精品久久久久久久久| 久久精品免费全国观看国产| 香蕉久久丫精品忘忧草产品|