Az Európai Unió a mai napon hivatalosan kiadott egy sor útmutató dokumentumot arról, hogy a vállalkozásoknak és a kormányoknak miként kell követniük mesterséges intelligencia-projektjeik kidolgozását és telepítését, hogy azok valóban átláthatóak, tisztességesek és „etikusak legyenek”.
Erről hirtelen eszembe jut egy A Robotika három törvénye című törvény, amelyet Isaac Asimov orosz író 1942-ben írt „Runaround” című novellagyűjteményében említett, valami hasonló az elsőhöz: A robot nem árthat az embereknek, és nem hagyhatja figyelmen kívül azokat a veszélyeket, emberek arcát. 2. cikk: A robotnak feltétlenül engedelmeskednie kell az emberek által adott parancsoknak, hacsak ezek nem ütköznek az első törvénybe. Harmadszor pedig: A robotnak meg kell védenie magát, feltéve, hogy ez a védelem nem ütközik az első és a második törvénybe. Bár ez csak egy közel 80 évvel ezelőtt megjelent "fikciós" szabályrendszer, még mindig különösen aktuális, amikor az emberek fokozatosan belépnek a mesterséges intelligencia jelenlegi korszakába. Természetesen az EU által kiadott új szabályrendszer alapvetően nem lesz azonos Isaac Asimov „A robotika három törvénye” törvényével. Az európai törvényhozók nem tudnak olyan rugalmas etikai keretet nyújtani, amely segítene eligazodni a nagy dolgokban, például a gyilkos robotok megállításában. Ehelyett az EU útmutató dokumentumai segítenek kezelni a "sötét és mindent átható" problémákat, amelyek negatív hatással vannak a társadalomra, mivel a mesterséges intelligenciát életünk számos fontos területébe integráljuk, mint például az egészségügy, az oktatás és a fogyasztói technológia.
Egyszerű példaként: ha egy orvosi mesterséges intelligencia rendszer olyan személynél diagnosztizál, akinél nagy a kockázata a rák kialakulásának a jövőben, az EU útmutatása segít biztosítani, hogy a következők közül néhányat meg kell tenni: A szoftvert nem torzítja vagy torzítja a páciens faj vagy nem, és egyúttal a legvilágosabb és legátláthatóbb tájékoztatást adják egészségügyi állapotukról, és különösen nem zavarhatják vagy akadályozhatják a beteg döntéseit.
Tehát igen, ezek az irányelvek elsősorban a mesterséges intelligencia modellek korlátozására és ellenőrzésére összpontosítanak, hogy megfelelően működjenek, de csak adminisztratív és bürokratikus szinten, ahelyett, hogy Asimov író képzelete szerint megakadályozzák a gyilkosságokat.
Az útmutató dokumentumcsomag elkészítéséhez az EU-nak egy 52 szakértőből álló csoportot kellett összehívnia, felkérve őket, hogy vitassák meg, állapodjanak meg, és állítsanak elő 7 olyan követelményt, amelyekre szerintük a jövőbeli mesterséges intelligenciarendszereknek meg kell felelniük. Ezek a követelmények a következők:
- A megfigyelés és a döntéshozatal végső képességének továbbra is az emberek kezében kell lennie: az AI-nak nem szabad, vagy inkább nem szabad megengednie, hogy „tapossák” az emberi autonómiát és önrendelkezést. Ezzel szemben az AI-rendszerek nem manipulálhatják vagy kényszeríthetik az embereket. Végtére is, az embereknek képesnek kell lenniük arra, hogy beavatkozzanak vagy felügyeljenek minden döntést, amelyet az AI szoftver a szükséges helyzetekben hoz.
- Pontos, biztonságos és biztonságos üzembe helyezési technikák: Minden mesterséges intelligencia modellnek – akár laboratóriumi méretekben, akár a valóságban – két tényezőt kell biztosítania: a biztonságot és a pontosságot, amelyek a következők: Előfeltételek. Más szóval, egy mesterséges intelligencia szoftvert nem szabad könnyen feltörni és külső támadások átvenni, és minden döntésének a legésszerűbb módon teljesen megbízhatónak kell lennie.
- A magánélet és az adatkezelés biztosítása: A mesterséges intelligencia rendszerek által gyűjtött személyes adatoknak szigorúan védettnek és teljesen privátnak kell lenniük. Ezeket az adatokat semmilyen szereplő nem hozhatja nyilvánosságra és nem férhet hozzá, és nem lehet könnyen ellopni vagy elveszíteni.
- Átláthatóság biztosítása: A mesterséges intelligencia rendszer létrehozásához használt adatok és algoritmusok hozzáférhetőek legyenek, és a szoftver által hozott döntéseket is egyértelműen be kell mutatni és meg kell magyarázni. Más szóval, az üzemeltetőknek képesnek kell lenniük arra, hogy konkrét és logikus módon magyarázzák el az AI-rendszereik döntéseit.
- Biztosítsa a sokszínűséget, a megkülönböztetésmentességet és a méltányosságot: az AI-alapú szolgáltatásoknak mindenki számára elérhetőnek kell lenniük, kortól, nemtől, rassztól vagy egyéb jellemzőktől függetlenül. Ugyanakkor a mesterséges intelligencia által hozott döntések nem lehetnek elfogultak semmilyen jellemző vagy objektum irányába.
- Pozitív környezeti és társadalmi hatás: A mesterséges intelligencia rendszereit fenntartható módon kell alkalmazni és fejleszteni (azaz ökológiailag felelősnek kell lenniük), és hozzá kell járulniuk a pozitív társadalmi változásokhoz.
- Felelősség: Az AI-rendszereket ellenőrizni kell, és a meglévő biztosítékokkal kell védeni. Más szóval, a rendszer negatív hatását (ha van ilyen) őszintén el kell ismerni, és az üzemeltetőket felelősségre kell vonni az AI-rendszereik által okozott negatív hatásokért.
Valószínűleg észreveszi majd, hogy a fenti állítások némelyike meglehetősen elvont, és objektív értelemben nehéz lenne értékelni (például a mesterséges intelligencia által előidézett pozitív társadalmi változás meghatározása személyenként és tágabb értelemben országonként nagyon eltérő lesz. ). A fennmaradó tételek többsége azonban általában egyszerűbb, és hatósági felügyelettel ellenőrizhető és garantálható. Például a kormányzati AI-rendszerek betanításához használt adatok megosztása jó módja lehet az elfogult, átláthatatlan algoritmusok elleni küzdelemnek.
Ezen uniós iránymutatások rendelkezései nyilvánvalóan nem jogilag kötelező erejűek, de felhasználhatók bármilyen jövőbeli, az AI területére vonatkozó, az Európai Unió által kidolgozott jogszabály megalkotására. Korábban az EU többször hangoztatta, hogy Európát úttörővé akarja tenni a világon az „etikus” mesterségesintelligencia-modellek elterjedésében, és útmutatást tartalmazó dokumentumcsomag bevezetése is. Ez egyértelműen azt mutatja, hogy készek messzemenő törvények kidolgozására. a digitális jogok szabályozása és védelme.
Az EU egy olyan mesterségesintelligencia-ágazatot szeretne kialakítani, amelynek középpontjában az etikai normák állnak
Az „etikus” mesterségesintelligencia-ipar létrehozására irányuló erőfeszítések részeként az EU útmutató dokumentuma lépcsőfokként tekinthető a „megbízható mesterségesintelligencia-értékelési lista” létrehozásához – egy olyan listakifejezés, amely segíthet a szakértőknek megtalálni a mesterséges intelligencia gyengeségeit vagy potenciális veszélyeit. szoftver, még akkor is, ha azt széles körben telepítették. Ez a lista olyan kérdéseket tartalmazhat, mint például: „Be tudja mutatni, hogyan működik az AI-rendszere összetett helyzetekben és környezetekben?” vagy „Ki tudja értékelni az adatkészletben lévő adatok típusát és terjedelmét?” ...
Természetesen ez az értékelési lista csak előzetes, az EU-nak még a közeljövőben vissza kell gyűjtenie a cégektől és a mesterséges intelligencia szakértőitől a visszajelzéseket. Az EU már 2020-ban összefoglaló jelentést tesz közzé erről a kérdésről.
Hidvégi Anny, az Access Now digitális jogokkal foglalkozó csoportjának szakpolitikai menedzsere és az EU útmutató dokumentumainak kidolgozásáért felelős 52 szakértő egyike elmondta, hogy az értékelési lista a kulcsfontosságú rész. A jelentés legfontosabb pontja: "Ez a dokumentumcsomag gyakorlatias , előretekintő perspektívát arról, hogyan lehet megelőzni és minimalizálni a mesterséges intelligencia lehetséges kárait."
„Véleményünk szerint az EU-ban van elegendő potenciál és felelősség ahhoz, hogy vezető szervezetté váljon ebben a munkában. De emellett azt is gondoljuk, hogy az Európai Uniónak nem szabad megállnia az erkölcsi elveknél. Meg kellene fontolniuk, hogy a mesterséges intelligencia bányászatait a jövőben kötelezzék a törvény betartására” – tette hozzá Hidvégi.
Mások szkeptikusak abban, hogy az EU azon kísérlete, hogy etikai kutatásokon keresztül alakítsa a globális mesterséges intelligencia fejlesztését, nagy hatással lesz.
„Szkeptikusak vagyunk Európa vezető szervezetének megközelítésével kapcsolatban. Az az elképzelés, hogy az etikus mesterségesintelligencia-rendszerek aranyszabványának létrehozásával az EU képes lesz kivívni a helyét a globális mesterségesintelligencia-ipar fejlődésében, viszonylag távoli. Ahhoz, hogy az EU-nak vezető szerepet töltsön be az etikus mesterségesintelligencia-szabályok kialakításában, először a mesterségesintelligencia egészében vezető szerepet kell betöltenie” – nyilatkozta Eline Ch Pivot, az Európai Adatinnovációs Központ vezető szakpolitikai elemzője.
Mit gondol erről a kérdésről? Kérjük, írja meg észrevételeit az alábbi megjegyzés rovatban!