Európska únia dnes oficiálne vydala súbor usmerňovacích dokumentov o tom, ako by sa podniky a vlády mali riadiť pri vývoji a nasadzovaní svojich projektov umelej inteligencie, aby boli skutočne transparentné, spravodlivé a „etické“.
Zrazu mi to pripomína zákon s názvom Tri zákony robotiky, o ktorom sa zmienil ruský spisovateľ Isaac Asimov v poviedkovej zbierke „Runaround“, ktorú zložil v roku 1942, niečo ako prvý: Robot nesmie ubližovať ľuďom ani ignorovať nebezpečenstvá, ktoré ľudská tvár. Článok 2: Robot musí bezpodmienečne poslúchať príkazy dané ľuďmi, pokiaľ tieto príkazy nie sú v rozpore s prvým zákonom. A po tretie: Robot sa musí chrániť sám za predpokladu, že takáto ochrana nie je v rozpore s prvým a druhým zákonom. Hoci ide len o súbor „fiktívnych“ pravidiel, ktoré sa objavili pred takmer 80 rokmi, stále je to obzvlášť aktuálne, keď ľudia postupne vstupujú do súčasnej éry umelej inteligencie. Samozrejme, nový súbor pravidiel vydaný EÚ nebude v zásade rovnaký ako zákon „Tri zákony robotiky“ Isaaca Asimova. Európski zákonodarcovia nedokážu poskytnúť flexibilný etický rámec, ktorý by nám pomohol zorientovať sa vo veľkých veciach, ako je zastavenie zabijáckych robotov. Usmerňujúce dokumenty EÚ namiesto toho pomáhajú riešiť „temné a všadeprítomné“ problémy, ktoré majú negatívny vplyv na spoločnosť, keďže umelú inteligenciu integrujeme do mnohých dôležitých oblastí nášho života.
Ako jednoduchý príklad možno uviesť, že ak systém umelej inteligencie v medicíne diagnostikuje osobu s vysokým rizikom vzniku rakoviny v budúcnosti, usmernenia EÚ pomôžu zabezpečiť, že je potrebné vykonať niektoré z nasledujúcich krokov: Softvér nie je zaujatý alebo zaujatý zo strany pacienta. rasy alebo pohlavia a zároveň poskytovať čo najjasnejšie a najtransparentnejšie informácie o svojom zdravotnom stave a najmä nesmie zasahovať do rozhodovania pacienta alebo mu brániť.lekár.
Takže, áno, tieto pokyny sú zamerané hlavne na obmedzenie a kontrolu modelov AI, aby správne fungovali, ale iba na administratívnej a byrokratickej úrovni, a nie na predchádzanie zabíjaniu podľa predstáv spisovateľa Asimova.
Na vypracovanie tohto súboru usmerňovacích dokumentov musela EÚ zvolať skupinu 52 expertov a požiadať ich, aby prediskutovali, odsúhlasili a predložili 7 požiadaviek, ktoré by podľa nich mali mať budúce systémy umelej inteligencie schopné reagovať. Tieto požiadavky sú nasledovné:
- Konečná schopnosť monitorovania a rozhodovania musí byť stále v rukách ľudí: AI by nemala, alebo skôr, nemala by mať dovolené „šliapať“ po ľudskej autonómii a sebaurčení. Naopak, ľudia by nemali byť manipulovaní alebo nútení systémami AI. Koniec koncov, ľudia musia mať možnosť zasiahnuť alebo monitorovať každé rozhodnutie, ktoré softvér AI urobí v nevyhnutných situáciách.
- Presné, bezpečné a bezpečné techniky nasadenia: Každý model AI pri nasadení, či už v laboratórnom meradle alebo v skutočnosti, musí zabezpečiť dva faktory: bezpečnosť a presnosť, ktorými sú: Predpoklady. Inými slovami, softvér AI by nemal byť ľahko kompromitovaný a prevzatý vonkajšími útokmi a každé jeho rozhodnutie by malo byť absolútne dôveryhodné tým najrozumnejším spôsobom.
- Zabezpečenie súkromia a správy údajov: Osobné údaje zhromaždené systémami AI musia byť prísne zabezpečené a úplne súkromné. Tieto údaje nesmú byť zverejnené ani k nim mať prístup žiadny aktér a nie je možné ich ľahko ukradnúť alebo stratiť.
- Zabezpečenie transparentnosti: Údaje a algoritmy použité na vytvorenie systému AI by mali byť dostupné a rozhodnutia prijaté softvérom by mali byť tiež jasne prezentované a vysvetlené. Inými slovami, operátori musia byť schopní vysvetliť rozhodnutia, ktoré ich systémy AI robia, konkrétnym a logickým spôsobom.
- Zabezpečte rozmanitosť, nediskrimináciu a spravodlivosť: Služby založené na umelej inteligencii musia byť dostupné pre každého bez ohľadu na vek, pohlavie, rasu alebo iné charakteristiky. Rozhodnutia, ktoré AI robí, zároveň nesmú byť zaujaté voči žiadnym charakteristikám alebo objektom.
- Pozitívny environmentálny a sociálny vplyv: Systémy umelej inteligencie sa musia nasadzovať a vyvíjať trvalo udržateľným spôsobom (t. j. musia byť ekologicky zodpovedné) a prispievať k pozitívnym sociálnym zmenám.
- Zodpovednosť: Systémy AI musia byť kontrolované a chránené existujúcimi zárukami. Inými slovami, negatívny vplyv (ak existuje) systému by mal byť úprimne uznaný a prevádzkovatelia by mali niesť zodpovednosť za negatívny vplyv, ktorý spôsobujú ich systémy AI.
Pravdepodobne si všimnete, že niektoré z vyššie uvedených tvrdení sú dosť abstraktné a bolo by ťažké ich zhodnotiť v objektívnom zmysle (napríklad definícia pozitívnej sociálnej zmeny, ktorú AI prináša, sa bude značne líšiť od človeka k človeku a v širšom zmysle aj medzi krajinami ). Väčšina zostávajúcich položiek je však vo všeobecnosti jednoduchšia a možno ich skontrolovať a zaručiť prostredníctvom dohľadu úradov. Napríklad zdieľanie údajov používaných na trénovanie vládnych systémov AI by mohlo byť dobrým spôsobom boja proti neobjektívnym, nepriehľadným algoritmom.
Ustanovenia týchto usmerňovacích dokumentov EÚ zjavne nie sú právne záväzné, ale mohli by sa použiť na formovanie akejkoľvek budúcej legislatívy navrhnutej Európskou úniou, ktorá by sa týkala oblasti AI. V minulosti sa EÚ opakovane vyjadrila, že chce z Európy urobiť priekopníka vo svete v zavádzaní „etických“ modelov umelej inteligencie a spustení súboru usmerňujúcich dokumentov. To jasne ukazuje, že sú pripravení navrhnúť ďalekosiahle zákony. reguláciu a ochranu digitálnych práv.
EÚ chce formovať odvetvie umelej inteligencie, ktorého jadrom sú etické normy
Ako súčasť úsilia o vytvorenie „etického“ odvetvia umelej inteligencie by sa usmerňovací dokument EÚ mohol považovať za odrazový mostík k vytvoreniu „dôveryhodného hodnotiaceho zoznamu AI“ – zoznamu výrazov, ktoré môžu pomôcť odborníkom nájsť akékoľvek slabé stránky alebo potenciálne nebezpečenstvá v umelej inteligencii. softvér, aj keď bol nasadený vo veľkom rozsahu. Tento zoznam môže obsahovať otázky ako: „Môžete ukázať, ako váš systém umelej inteligencie funguje v zložitých situáciách a prostrediach?“ alebo „Dokážete vyhodnotiť typ a rozsah údajov vo vašej množine údajov?“ ...
Samozrejme, tento hodnotiaci zoznam je len predbežný, EÚ bude musieť v blízkej budúcnosti ešte zozbierať spätnú väzbu od firiem a odborníkov na umelú inteligenciu. Už v roku 2020 EÚ zverejní súhrnnú správu o tejto problematike.
Anny Hidvégi, manažérka pre politiku v skupine pre digitálne práva Access Now a jedna z 52 expertov zodpovedných za vypracovanie usmerňovacích dokumentov EÚ, uviedla, že kľúčovou súčasťou je hodnotiaci zoznam. Najdôležitejší bod správy: „Tento súbor dokumentov pomáha poskytnúť praktické , perspektívny pohľad na to, ako predchádzať a minimalizovať potenciálne škody spôsobené AI.“
„Podľa nášho názoru má EÚ dostatočný potenciál a zodpovednosť na to, aby sa stala vedúcou organizáciou v tejto práci. Okrem toho si však myslíme aj to, že Európska únia by sa nemala zastaviť pri morálnych zásadách. Mali by zvážiť, že v budúcnosti budú musieť ťažobné spoločnosti AI dodržiavať zákon,“ dodal Hidvégi.
Iní sú skeptickí, že snaha EÚ ovplyvňovať vývoj globálnej umelej inteligencie prostredníctvom etického výskumu bude mať veľký účinok.
„Sme skeptickí k prístupu vedúcej európskej organizácie. Myšlienka, že vytvorením zlatého štandardu pre etické systémy umelej inteligencie si EÚ bude môcť vybojovať svoje miesto v rozvoji globálneho priemyslu umelej inteligencie, je pomerne pritažená za vlasy. Ak sa chce EÚ stať lídrom vo vytváraní etických pravidiel AI, musí sa najprv stať lídrom v oblasti AI ako celku,“ uviedla Eline Ch Pivot, senior analytička v Európskom dátovom inovačnom centre.
Čo si myslíte o tejto problematike? Zanechajte prosím svoje pripomienky v sekcii komentárov nižšie!