Read the full hungarian article below.
Unsurprisingly, the application of artificial intelligence (AI) has not been absent from the Olympic Games. However, as it is always the case, any technological advance necessarily entails risks, and the use of AI in the Olympics has already triggered a number of major legal and ethical debates, particularly in the context of mass surveillance systems designed to help police the Olympics. Dr. János Kopasz explored the many different solutions for the use of AI in the Olympics, highlighting its benefits and controversial issues, especially in light of the new EU AI Act that entered into force on 1 August 2024.
Mesterséges intelligencia a párizsi olimpián: Technológiai diadal vagy adatvédelmi rémálom?
A mesterséges intelligencia (AI) alkalmazása természetesen az olimpiai játékokat sem kerülhette el. Azonban ahogy az lenni szokott, minden technikai vívmány szükségszerűen kockázatokkal is jár és máris számos jelentős jogi és etikai vitát váltott ki az AI olimpián történő alkalmazása, különösen az olimpia rendvédelmét elősegíteni hívatott tömeges megfigyelőrendszerekkel összefüggésben. Dr. Kopasz János, a Taylor Wessing nemzetközi ügyvédi iroda adatvédelmi szakértője járta körbe a mesterséges intelligencia olimpián történő alkalmazásának sokrétű megoldásait, kiemelve annak előnyeit és a vitás kérdéseket, különösen a 2024. augusztus 1-jén hatályba lépett új uniós AI Act fényében.
AI az olimpiai játékok DNS-ében
Az AI-alapú technológiáknak az olimpia ökoszisztémájába történő integrálása nem a véletlen műve, a Nemzetközi Olimpia Bizottság külön AI Agendával készült a párizsi olimpiára az AI nyújtotta lehetőségek mind szélesebb körű felhasználására.
A sportolók számára az AI forradalmasítja az edzéseket, hozzásegít a teljesítményfokozáshoz és a sérülések kockázatának csökkentéséhez. Az AI alapú különböző viselhető eszközök, amelyeket a sportolók felszerelésébe építenek be, számos élettani mérőszámot követnek valós időben nyomon, például a szívritmust, az oxigénszintet, a lépésmintákat, ezzel segítve az edzőket az edzéstervek azonnali optimalizálásában, ami jelentősen javíthatja a sportolók teljesítményét és csökkentheti a sérülések kockázatát.
Ezenkívül a Nemzetközi Olimpiai Bizottság (NOB) az AI-t használja a játékok szervezésének és irányításának egyszerűsítésére. Az AI optimalizálja a logisztikát, az erőforrások elosztását és hozzájárul a fenntarthatósági erőfeszítésekhez, így csökkentve az olimpiai játékok okozta hulladéktermelést és energiafogyasztást. Mindez optimalizált működést biztosít, és minimalizálja az esemény ökológiai lábnyomát. A nézők is profitálnak az AI-ból, amely személyre szabott tartalmakat, valós idejű statisztikákat és interaktív funkciókat kínál a digitális platformokon, így az olimpiai műsorszámok követése világszerte elérhetőbbé és élvezetesebbé válik.
Az AI-t a helyszínek kezelésében is alkalmazzák, fokozva a biztonságot, a kamerarendszerek képeit például AI alapú algoritmus elemzi, gyanús viselkedést és otthagyott tárgyakat keresve, így megelőzve a potenciális incidensek kialakulását.
Az AI használatával kapcsolatos jogi viták
Az előnyei ellenére az AI alkalmazása az olimpián jelentős jogi és etikai kérdéseket vet fel, különösen a magánélet védelme és az emberi jogok potenciális sérelme miatt, amely kontextusában elsősorban az alkalmazott AI-alapú tömeges megfigyelőrendszer vált vitaponttá.
Egy 38 civil szervezetből álló koalíció komoly jogi aggályokat fogalmazott meg az olimpiai játékokra tervezett mesterséges intelligencia alapú megfigyeléssel kapcsolatban. Érvelésük szerint a mesterséges intelligencia alapú megfigyelés széles körű alkalmazása sérti a magánélethez való jogot, a gyülekezési és egyesülési szabadságot, valamint a megkülönböztetésmentességhez való jogot. A szervezetek azt állítják, hogy az algoritmikus megfigyelés mindenütt jelen lévő jellege visszatartó hatással lehet a polgári szabadságjogokra, mivel a megfigyeléstől és a téves személyazonosítástól való félelem miatt az egyéneket visszatarthatja a nyilvános gyülekezéstől, valamint előmozdíthatja a diszkriminációt, különösen a marginalizált csoportokkal szemben. Ráadásul az ilyen technológia alkalmazása a faji, etnikai és vallási kisebbségek túlzott mértékű ellenőrzéséhez és elfogult profilalkotásához vezethet. Továbbá azzal érvelnek, hogy a mesterséges intelligencia rendszerek azon képessége, hogy viselkedési adatok alapján különböztetnek meg egyéneket, biometrikus kategorizálásnak minősül, amely alkalmazása ijesztő precedenst teremthet.
Az olimpia során tényleges biometrikus azonosításra a rendszer alkalmazásával nem kerül sor, hanem elsősorban a gyanús tárgyak, viselkedések, tömeggócpontok kialakulásának kiszűrésére irányul a rendszer, amelyet kizárólag átmeneti jelleggel, külön jogszabályi felhatalmazás alapján vezettek be. „Mindazonáltal megállapítható, hogy egy jellegzetes testtartás, mozgás, már önmagában olyan karakterisztikával bírhat, amely valóban alkalmas lehet arra, hogy egyedi azonosítást tegyen lehetővé. És bár az AI Act még nem volt alkalmazandó az esetkörre, önmagában a GDPR alapján is szigorú garanciális követelményeknek kell megfelelnie egy ilyen rendszernek. Annak eldöntése, hogy a háború mellett gyakorlatilag a legnagyobb biztonságpolitikai operációnak tekinthető és kockázatokkal járó olimpiai játékok során a biztonság biztosítása érdekében az AI bevetése szükséges és arányos intézkedésnek minősül-e, meglehetősen komplex kérdéseket vet fel” – emelte ki dr. Kopasz János adatvédelmi szakértő.
Jogi kihívások és az EU AI Act
Az augusztus 1-jén hatályba lépett EU AI Act újabb réteggel színesíti az AI alkalmazását, amelynek hatóköre messze túlmutat az Európai Unió területén és globális sztenderdként szolgál majd.
Az AI Act kockázatalapú megközelítést alkalmaz, kategorizálja az AI rendszereket az egyének alapvető jogaira és a társadalomra gyakorolható potenciális kockázata alapján. Bizonyos, elfogadhatatlan kockázatot jelentő AI rendszerek alkalmazása teljes mértékben tiltásra kerül, mint például a szubliminális, azaz a tudat alattinkra ható rendszerek, vagy a Kínából már ismert társadalmi pontozó rendszerek. De hasonlóképpen, a nyilvánosság számára hozzáférhető helyeken, valós idejű biometrikus azonosító rendszerek használata is csak szűken meghatározott esetekben, mint például egy terrortámadás megelőzése, és további jelentős garanciák mellett válhatnak kivételes esetben alkalmazhatóvá.
Mindazonáltal az olimpia szempontjából az AI Act szigorú szabályai még kevésbé relevánsak, tekintettel arra, hogy annak tényleges alkalmazása fokozatosan kezdődik meg egy 2 éves átmeneti időszak alatt, így biztosítva kellő időt az érintett szervezeteknek a felkészülésre. Így például a fenti tiltott AI-gyakorlatokra vonatkozó szabályok 2025. februárjától, míg a legrészletesebb követelményekkel érintett nagy kockázatú AI rendszerekre vonatkozó rendelkezések 2026 augusztusában lépnek életbe.
„Ez természetesen nem jelenti azt, hogy az AI-t fejlesztő vagy akár az AI alapú megoldásokat pusztán csak alkalmazó cégeknek ne lenne addig is számos jogi teendője. Számos jogszabály már most irányadó az AI alkalmazásokra függetlenül attól, hogy kifejezetten szó sem esik benne az AI-ról. Az talán különösebb magyarázatot nem is igényel, hogy bármely technológiai alkalmazás esetén, de különösen az iszonyatos adatmennyiségű tanulóadatbázison fejlesztett AI rendszereknél, hatványozottan jelennek meg a legkülönfélébb adatvédelmi kérdések a GDPR kontextusában, amelyek a megfelelő adatkezelési jogalap követelményén túl számos kihívást támasztanak a reprezentatív, elfogultságtól mentes adathigéniai eléréséig. Az adatvédelem ilyen értelemben az AI alap építőkövének tekinthető, de tágabb perspektívában számos szerzői jogi, titokvédelmi, munkajogi kérdés társul az AI alkalmazásához, amely immáron így egy komplex és holisztikus adatkormányzási modell alkalmazását igényli valamennyi AI-t alkalmazó cégtől, már most. Ehhez járul egy újabb jelentős rétegként majd a fokozatosan hatályba lépő, termékfelelősségi koncepción alapuló AI Act, amelyet a hatályossá vált szöveg és kötelezettségek mentén szükséges integrálnunk a meglévő AI menedzselési szisztémánkba” – foglalja össze Dr. Kopasz János, a Taylor Wessing Budapest adatvédelmi szakértője.