根據教授的意見,歐盟人工智能法規中有哪些內容(未包含)。弗洛里迪



根據教授的意見,歐盟人工智能法規中有哪些內容(未包含)。弗洛里迪

關於歐盟關於人工智能的法規草案的目的和意見。弗洛里迪對佩斯的分析

埃爾佩斯(Lucpais)的盧西亞諾·弗洛里迪(Luciano Floridi)寫道,對我們的社會和我們的機構而言,挑戰不僅僅是技術轉型,而是新領域的治理和監管。歐洲聯盟沒有權限的情況。

至少自2019年7月16日烏爾蘇拉·馮·德·萊恩(Ursula von der Leyen)當選為歐洲委員會主席以來,關於歐洲新的人工智能立法已有一段時間了。那天,馮·德萊恩(Von der Leyen)承諾,她將在100天之內提出符合歐洲道德價值觀的新歐洲AI立法。當時,我評論說,戰略原因證明了這種雄心壯志,但這在當時並不現實。該策略已經使AI倫理專家組(HLEG,人工智能高級專家組,我是其中的成員)開始工作。該小組由委員會成立,剛剛發布了歐洲AI的道德和政策指南。顯然,下一步是將這些準則轉化為立法文書。但是,已經完成的工作表明了該過程的時間和精力。我個人堅信,將這些原則轉化為標準至少需要一年的時間。像許多其他人一樣,我沒有想到這種大流行。今天,將近兩年後,我們有了2021年4月21日正式啟動的關於歐盟AI監管的初步提案草案,即AI Act(AIA)。總體而言,該文本草案被認為是確保AI技術部門在歐盟以安全和可接受的方式發展的一個良好起點,從而造福於經濟,社會和環境。我不會詳細介紹它的法律方面,其中某些方面注定會發展。從哲學上講,我相信AIR的基本積極方面是很多的,儘管有一些局限性。

首先,這是一條法規,而不是指令,因此,它需要以與《通用數據保護法規》(GDPR)相同的方式,被所有歐盟成員國實施,而不僅僅是接受。與GDPR一樣,RIA也以立法的非領土性為前提。我們生活在後威斯特法倫州的世界中,AIR會影響任何演員,無論他們的身體狀況或法律地位如何。重要的是這是否是一項服務,例如,新加坡公司向西班牙公司提供的自動僱用管理系統,這會對歐洲公民產生影響。在這種後威斯特伐利亞模式下,當AI巨頭必須證明符合新法規時,它們將不得不與歐盟而不是單個國家打交道。歐盟不僅在個人數據(GDPR)的管理方面,而且在AI的實施方面,也表現為一個對話者。可以說,數字主權受到威脅時,數字上會佔優勢。沒有任何一家公司能夠無視忽略一個代表著全球經濟六分之一的市場。但是,這也意味著,對於必須應用RIA的公司,要解釋為什麼它們在其他國家/地區開展業務時未採用如此高的標準將更加困難。此外,RIA可能會產生積極影響,而不是在中國,甚至可能在美國也不會,而是從加拿大到韓國,從日本到英國,從以色列到新加坡,都可以使歐盟處於“模範領導”的地位“對於AI技術的良好治理,就像GDPR已經發生的那樣。得益於良好的立法框架,與這些領先的AI國家/地區的合作將變得更加容易。 AIA繼承了GDPR的另一個積極因素:保護人類尊嚴和人權是最終目標。不幸的是,友邦保險使用過時的術語來定義這種以人為中心的方法,即它將人類置於技術發展的中心。這個想法是正確的:技術必須為人類服務。但實際上,我們還必須考慮到環境,而從以人為中心到人類中心主義的步驟很短,而且我們知道地球一直以人類為中心,這使人類遭受了地球的沉重困擾,彷彿一切都將成為現實。為我們服務,包括大自然母親。幸運的是,即使術語已過時,但基本觀點是正確的:AIA強調AI作為綠色技術的價值,這對於可持續發展以及與污染和氣候變化的鬥爭可能具有非凡的幫助。在這方面,IYA是對歐洲環境政策的補充。我將其稱為綠色和藍色項目,歐盟必須在全球範圍內推動該項目。在方法上,AIA旨在消除或減輕AI的風險,以支持對這些創新技術的信任。想法是,道德對市場有利,而不是相反。正是由於這個原因,AIA明確採用了HLEG提出的道德準則。在這裡值得強調另一個基本的積極方面。該規定對科幻小說的猜測沒有任何讓步,不幸的是,這使公眾輿論大為分散。人工智能被視為解決問題和執行任務的技術,而不是作為外星生命形式。因此,AIA排除了將AI與權利或義務相關的法律主觀性歸因於AI的任何可能性。任何AI系統的責任總是正確地分配給設計,製造,銷售和使用該系統的人類。

那你還好嗎不完全是。除了可以引入的法律改進之外,該草案還包含一些概念上的局限性,應予以糾正。讓我們檢查一下。

草案有時是模棱兩可的。一個重要的案例是高風險AI系統的定義,這是整個法規中的關鍵概念,它明確結合了我認為最好區分的兩種含義。一方面,我們擁有AI系統,其正常運行取決於關鍵問題-想想自動駕駛汽車系統:必須運轉良好的好東西。另一方面,我們擁有AI系統,其濫用的關鍵問題取決於:思考法律禁止的實時生物識別監控系統的濫用:絕不能使用這種邪惡。如果您不區分兩者,那麼我們最終會混淆良好的AI系統的強制恢復力和必須對濫用AI系統施加的阻力。

在其他情況下,該草案含糊不清,例如在談論禁止使用旨在扭曲人類行為的AI系統時,存在可能造成身體或心理傷害的風險。基本意圖是可以接受的,但是如果這種方法應用得過於嚴格,則有可能禁止許多毫無問題的AI系統。

最後,草案中的某些期望似乎受到過分的理想主義的折磨。一個典型的例子是用於訓練機器學習模型的數據庫標準,除其他外,這些標準應該是相關的,具有代表性的,無錯誤的和全面的。實際上,這些是非常可取的要求,但很少能完全滿足它們-想到任何部的數據庫,這些數據庫通常是不完整和不正確的。因此,最好談論一些閾值,在這些閾值以下,這些標準的滿意度是不可接受的。

AIA將加入GDPR,並將通過《數字服務法案》和《數字市場法案》來解決,該法案將規範在線平台和服務。幾年後,當該立法體系結構完成時,歐盟將獲得一個信息圈,其公民將能夠以一種更好,更可持續的方式生活和運營。顯然,挑戰不再是數字治理,而是數字治理,歐盟也沒有應對這一挑戰的能力。


這是在 Sun, 30 May 2021 06:00:56 +0000 在 https://www.startmag.it/innovazione/intelligenza-artificiale-regolamento-unione-europea-floridi/ 的報紙 “Scenari Economici” 上發表的文章的翻譯。