1/2020 K PRÁVNEJ POVAHE MOBILNÝCH DOMOV
25.2.2022
Ochrana osobných údajov v kontexte umelej inteligencie[1]
Protecting privacy in an AI-driven world
JUDr. PhDr. Lilla Garayová, PhD.
Paneurópska vysoká škola
Fakulta práva
Ústav medzinárodného a európskeho práva
E-mail: lilla.garayova@paneurouni.com
JUDr. Andrej Karpat, PhD.
Paneurópska vysoká škola
Fakulta práva
Ústav medzinárodného a európskeho práva
E-mail: andrej.karpat@paneurouni.com
Kľúčové slová:
ochrana osobných údajov, GDPR, umelá inteligencia, súkromie, big data
Key words:
data protection laws, GDPR, artificial intelligence, AI, machine learning, big data
Abstrakt:
Všeobecné nariadenie EÚ o ochrane údajov (GDPR), ktoré je jedným z najprísnejších predpisov týkajúcich sa ochrany údajov a súkromia, priťahuje pozornosť krajín celého sveta. O tom, ako dosiahnuť súlad nových technológií s GDPR, sa vedie búrlivá diskusia. Bude mať GDPR za následok zákaz používania umelej inteligencie? Ako sa dá získať informovaný súhlas s algoritmom AI, ktorý nedokáže popísať jeho rozhodovacie kritériá? Je čas na revíziu GDPR?.[2]
Abstract/Summary:
For the longest time Europe has been proudly claiming to have the strongest data protection legislation worldwide. While that might be true, only a couple years after its creation we are finding some disadvantages of the Regulation.How can we ensure the compliance of AI with the rules of GDPR? Has the time come for the revision of the Regulation? Will the regulation hinder technological innovation?
Úvod
V poslednom desaťročí umelá inteligencia prešla rýchlym vývojom. Získala solídny vedecký základ a priniesla mnoho úspešných aplikácií. Poskytuje príležitosti na hospodársky, sociálny a kultúrny rozvoj, energetickú udržateľnosť a lepšiu zdravotnú starostlivosť. Tieto úžasné príležitosti sprevádzajú vážne riziká vrátane nezamestnanosti, ochrany osobných údajov, diskriminácie, sledovania a manipulácie. Mnoho aplikácií umelej inteligencie spracúva osobné údaje. Na jednej strane môžu osobné údaje prispievať k súborom údajov používaných na školenie systémov strojového učenia, konkrétne na zostavovanie ich algoritmických modelov. Na druhej strane sa takéto modely dajú použiť na osobné údaje, aby sa z nich vyvodili závery týkajúce sa konkrétnych jednotlivcov. Vďaka umelej inteligencii môžu byť všetky druhy osobných údajov použité na analýzu, prognózu a ovplyvnenie ľudského správania, čo je príležitosť, ktorá transformuje tieto údaje a výsledky ich spracovania na hodnotné komodity. Umelá inteligencia umožňuje automatizované rozhodovanie aj v doménach, ktoré si vyžadujú zložité voľby, založené na viacerých faktoroch a nepreddefinovaných kritériách. V mnohých prípadoch sú automatizované predpovede a rozhodnutia nielen lacnejšie, ale aj presnejšie a nestrannejšie ako ľudské, pretože systémy umelej inteligencie sa môžu vyhnúť typickým omylom ľudskej psychológie a môžu byť podrobené prísnym kontrolám. Algoritmické rozhodnutia však môžu byť tiež mylné alebo diskriminačné, a tak môžu nepriaznivo ovplyvniť dotknuté osoby.
Osobné údaje a umelá inteligencia
Systémy umelej inteligencie osídľujú ľudský svet rôznymi spôsobmi: priemyselné roboty v továrňach, servisné roboty v domácnostiach a zdravotníckych zariadeniach, autonómne vozidlá a bezpilotné lietadlá v doprave, autonómne zbrane v armáde, inteligentné komunikačné zariadenia zabudované do každého prostredia. Umelá inteligencia sa stala jednou z najsilnejších hybných síl sociálnej transformácie: mení ekonomiku, ovplyvňuje politiku a pretvára životy a interakcie občanov. Vypracovanie vhodných politík a predpisov pre reguláciu umelej inteligencie je pre Európu prioritou, pretože umelá inteligencia vytvára príležitosti a zvyšuje riziká spôsobmi, ktoré majú veľký spoločenský a právny význam.
V súvislosti s umelou inteligenciou sa už objavilo niekoľko konkrétnych etických a právnych problémov v niekoľkých doménach, ako je občianska zodpovednosť, ochrana osobných údajov, bezpečnosť, zmluvné vzťahy, trestná zodpovednosť a zločiny. Takéto problémy nadobúdajú väčší význam, pretože čoraz viac inteligentných systémov opúšťa kontrolované a obmedzené prostredie laboratórií a tovární a zdieľajú spoločné fyzické a virtuálne priestory s ľuďmi.
Ochrana osobných údajov je v popredí týchto diskusií, pretože aplikácia umelej inteligencie často zahŕňa rozsiahle spracovanie osobných údajov.
Na rozdiel od Smernice z roku 1995[3], Nariadenie GDPR[4] už obsahuje niektoré pojmy odkazujúce na internet (internet, sociálne siete, webové stránky, odkazy atď.), ale nezahŕňa „umelú inteligenciu“ ani pojmy vyjadrujúce súvisiace koncepty, ako napríklad inteligentné systémy, autonómne systémy, automatizované rozhodovanie a profilovanie, strojové učenie alebo dokonca veľké dáta. Odráža to skutočnosť, že nariadenie GDPR sa zameriava na výzvy, ktoré sa objavujú v súvislosti s internetom – tieto neboli obsiahnuté v smernici o ochrane údajov z roku 1995, ale boli prítomné v čase, keď bol návrh GDPR vypracovaný – avšak nie na nové otázky týkajúce sa umelej inteligencie, ktorá získala spoločenský význam až v posledných rokoch.
Ak však skúmame Nariadenie GDPR hlbšie, zistíme, že veľa ustanovení Nariadenia GDPR je veľmi relevantných. Koncept osobných údajov hrá v GDPR kľúčovú úlohu charakterizujúcu vecnú pôsobnosť nariadenia. Ustanovenie GDPR sa týka iba osobných údajov, s vylúčením informácií, ktoré sa netýkajú ľudí (napr. údajov o prírodných javoch), a tiež s vylúčením informácií, ktoré sa, hoci sa týkajú ľudí, nevzťahujú na konkrétnych jednotlivcov (všeobecné lekárske informácie o ľudskej fyziológii alebo patológiách) alebo bola účinne anonymizovaná tak, že stratila spojenie s konkrétnymi jednotlivcami. Osobné údaje sú definované v článku 4 ods. 1 GDPR:
„osobné údaje“ sú akékoľvek informácie týkajúce sa identifikovanej alebo identifikovateľnej fyzickej osoby (ďalej len „dotknutá osoba“); identifikovateľná fyzická osoba je osoba, ktorú možno identifikovať priamo alebo nepriamo, najmä odkazom na identifikátor, ako je meno, identifikačné číslo, lokalizačné údaje, online identifikátor, alebo odkazom na jeden či viaceré prvky, ktoré sú špecifické pre fyzickú, fyziologickú, genetickú, mentálnu, ekonomickú, kultúrnu alebo sociálnu identitu tejto fyzickej osoby.[5]
Odôvodnenie 26 sa zaoberá identifikovateľnosťou, konkrétne podmienkami, za ktorých sa časť údajov, ktorá nie je výslovne spojená s osobou, stále považuje za osobný údaj, pretože zahŕňajú možnosť na identifikáciu dotknutej osoby. Zásady ochrany údajov by sa mali vzťahovať na všetky informácie týkajúce sa identifikovanej alebo identifikovateľnej fyzickej osoby. Osobné údaje, ktoré boli pseudonymizované a ktoré by sa mohli použitím dodatočných informácií priradiť fyzickej osobe, by sa mali považovať za informácie o identifikovateľnej fyzickej osobe. Na určenie toho, či je fyzická osoba identifikovateľná, by sa mali brať do úvahy všetky prostriedky, pri ktorých existuje primeraná pravdepodobnosť, že ich prevádzkovateľ alebo akákoľvek iná osoba využije, napríklad osobitným výberom, na priamu alebo nepriamu identifikáciu fyzickej osoby. Na zistenie toho, či je primerane pravdepodobné, že sa prostriedky použijú na identifikáciu fyzickej osoby, by sa mali zohľadniť všetky objektívne faktory, ako sú náklady a čas potrebný na identifikáciu so zreteľom na technológiu dostupnú v čase spracúvania, ako aj na technologický vývoj. Zásady ochrany údajov by sa preto nemali uplatňovať na anonymné informácie, konkrétne na informácie, ktoré sa nevzťahujú na identifikovanú alebo identifikovateľnú fyzickú osobu, ani na osobné údaje, ktoré sa stali anonymnými takým spôsobom, že dotknutá osoba nie je identifikovaná alebo už nie je identifikovateľná. Prostredníctvom pseudonymizácie sa dátové položky, ktoré identifikujú osobu (tj. meno), nahradia pseudonymom, ale súvislosť medzi pseudonymom a identifikačnými dátovými položkami sa dá vysledovať pomocou samostatných informácií (napr. prostredníctvom tabuľky spájajúcej pseudonymy a skutočné čísla alebo pomocou kryptografického kľúča na dekódovanie šifrovaných mien). Odôvodnenie 26 špecifikuje, že pseudonymizované údaje sú stále osobnými údajmi. Spojenie medzi osobnou povahou informácií a technologickým rozvojom je uvedené v odôvodnení 9. Ak technologický vývoj umožní premeniť anonymizované údaje na osobné údaje, tieto údaje sa považujú za osobné údaje a podľa toho sa má uplatňovať nariadenie (EÚ) 2016/679.
V európskej legislatíve neexistuje pozitívne vymedzenie pojmu neosobné údaje, ale pojem nám čiastočne priblíži Nariadenie o rámci pre voľný tok iných ako osobných údajov v Európskej únii 2018/1807[6], podľa ktorého rozširujúci sa internet vecí, umelá inteligencia a strojové učenie predstavujú hlavné zdroje iných ako osobných údajov, napríklad ako výsledok ich využívania v automatizovaných procesoch priemyselnej výroby. Medzi konkrétne príklady iných ako osobných údajov patria agregované a anonymizované súbory údajov používané na analýzu veľkých dát, údaje o precíznom poľnohospodárstve, ktoré môžu pomôcť monitorovať a optimalizovať využívanie pesticídov a vody, alebo údaje o potrebách údržby priemyselných strojov.
Normatívny rámec
Umelá inteligencia nie je výslovne uvedená v GPDR, ale veľa ustanovení GDPR sa týka umelej inteligencie a niektoré sú skutočne spochybnené novými spôsobmi spracúvania osobných údajov, ktoré umožňuje umelá inteligencia. Existuje skutočné napätie medzi tradičnými zásadami ochrany údajov – obmedzenie účelu, minimalizácia údajov, špeciálne zaobchádzanie s „citlivými údajmi“, obmedzenie automatizovaných rozhodnutí – a plným využitím sily umelej inteligencie a veľkých dát. To zahŕňa zhromažďovanie veľkého množstva údajov o jednotlivcoch a ich sociálnych vzťahoch a spracovanie týchto údajov na účely, ktoré neboli v čase zhromažďovania úplne určené. Existujú však spôsoby, ako interpretovať, uplatňovať a rozvíjať zásady ochrany údajov, ktoré sú v súlade s prospešným využitím umelej inteligencie a veľkých dát.
Požiadavka konkrétnosti súhlasu a rešpektovania obmedzenia účelu by mala súvisieť s flexibilným uplatňovaním myšlienky zlučiteľnosti, ktorá umožňuje opakované použitie osobných údajov, ak to nie je nezlučiteľné s účelom, na ktorý sa údaje zhromaždili. Právny základ ustanovený v článku 6 ods. 1 písm. f), môže poskytnúť dostatočné dôvody, na základe ktorých je možné opätovné použitie povoliť. Navyše, ako sme uviedli vyššie, opätovné použitie na štatistické účely sa považuje za kompatibilné, a preto by bolo všeobecne prípustné (pokiaľ to pre dotknutú osobu nepredstavuje neprijateľné riziká).
Požiadavky na informovanie stanovené v nariadení GDPR možno splniť aj v súvislosti s umelou inteligenciu. Informácie o aplikáciách založených na umelej inteligencii by mali dotknutým osobám umožniť porozumieť účelu spracovania a jeho obmedzeniam bez toho, aby zachádzali do technických podrobností. GDPR umožňuje vyvodiť závery založené na osobných údajoch vrátane profilovania, ale iba za určitých podmienok a za predpokladu, že sa prijmú príslušné ochranné opatrenia. GDPR nevylučuje automatizované rozhodovanie, pretože poskytuje dostatok výnimiek so všeobecným zákazom ustanoveným v článku 22 ods. 1. Existujú nejasnosti týkajúce sa rozsahu, v akom by sa malo dotknutej osobe poskytnúť individuálne vysvetlenie. Nejasnosti existujú aj v súvislosti s tým, do akej miery sa môžu na odôvodnené rozhodnutia vzťahovať kritériá primeranosti.
Predpisy GDPR sú často nejasné a vágne. Nariadenie GDPR umožňuje vývoj aplikácií pre ktoré úspešne vyvážia ochranu údajov a ďalšie sociálne a ekonomické záujmy. To však neznamená, že takúto rovnováhu je možné nájsť iba pomocou samotného GDPR. GDPR skutočne oplýva nejasnými doložkami. Z problematických ustanovení, ktoré sa týkajú umelej inteligencie, je možné spomenúť: identifikovateľnosť dotknutej osoby (článok 4 ods. 1), súhlas dotknutej osoby (článok 4 ods. 11), minimalizácia údajov (článok 5 ods. 1 písm. c), obmedzenie účelu (článok 5 ods. 1 písm. b), legitimita záujmov prevádzkovateľa a ich prevažujúca dôležitosť (článok 6 ods. 1 písm. f), transparentné spracúvanie (článok 13 ods. 2 písm. f) a vhodnosť technických a organizačných opatrení na ochranu údajov už od návrhu a štandardného nastavenia (článok 25). V rôznych prípadoch si interpretácia nedefinovaných štandardov GDPR vyžaduje vyváženie konkurujúcich záujmov. V prípade použitia umelej inteligencie a veľkých dát sa neistoty spojené s uplatňovaním neurčitých koncepcií a vyvažovaním konkurenčných záujmov zhoršujú vďaka novosti technológií, ich zložitosti, širokému rozsahu ich individuálnych a sociálnych účinkov.
V hyperkomplexnej a rýchlo sa rozvíjajúcej oblasti technológií umelej inteligencie nie je k dispozícii žiadne ľahké riešenie. To, aký vplyv bude mať GDPR na úspešné uplatňovanie umelej inteligencie a veľkých dát v Európe, bude teda závisieť aj od toho, aké usmernenie budú mať orgány na ochranu údajov – a čo vo všeobecnosti právny systém bude schopný poskytovať prevádzkovateľom a dotknutým osobám. Možno bude potrebné navrhnúť vhodné mechanizmy, napríklad povinnosť informovať orgány na ochranu údajov pri zavedení nových aplikácií založených na profilovaní, ale aj možnosť požiadať o preventívne, nezáväzné informácie o tom, či a ako by sa mali tieto aplikácie vyvíjať, a s akými zárukami.
Aplikácie umelej inteligencie môžu mať vplyv nielen na dotknuté osoby, ale aj na celú spoločnosť. Aj aplikácie založené na správnych štatistických princípoch, ktoré sa nezameriavajú na chránené kategórie a ktoré prijímajú vhodné bezpečnostné opatrenia, môžu stále predstavovať neprimeranú záťaž pre určité kategórie občanov, alebo môžu mať negatívne sociálne dopady. Dohľad príslušných orgánov je potrebné doplniť podporou občianskej spoločnosti. Pretože ide o kolektívne záujmy, mocenské vzťahy a spoločenské usporiadanie, je tiež potrebná rozsiahla verejná diskusia a zapojenie zastupiteľských inštitúcií.
Nedostatky súčasnej právnej úpravy
Umelá inteligencia sľubuje významné sociálne a ekonomické výhody. Tieto výhody však môžu byť znížené zlou legislatívou. Všeobecné nariadenie o ochrane údajov, najmä pri vytváraní potrebného celoeurópskeho rámca ochrany súkromia, bude, bohužiaľ, brzdiť vývoj a používanie umelej inteligencie v Európe, čím sa spoločnosti v EÚ dostanú do konkurenčnej nevýhody oproti severoamerickými a ázijskými spoločnosťami. Požiadavka nariadenia GDPR, aby organizácie získavali súhlas používateľov so spracovaním údajov a rastúci tlak na ekonomiku založenú na dátach, sa bude javiť ako výnimočne škodlivá pre vznikajúcu algoritmickú ekonomiku.
Na riešenie týchto obmedzení v GDPR niekoľko európskych krajín začalo uskutočňovať stratégie na uľahčenie prístupu k osobným údajom spoločnostiam v konkrétnych odvetviach. Tieto izolované snahy sú dôležité, ale nebudú postačujúce na úplné využitie hodnoty údajov a dlhodobé zachytenie rastu. GDPR vo svojej súčasnej podobe ohrozuje budúcu konkurencieschopnosť Európy. Úspech Európy v globálnej algoritmickej ekonomike si vyžaduje regulačné prostredie, ktoré je vhodné pre umelú inteligenciu a zároveň neznižuje ochranu spotrebiteľa. Ak chce EÚ prosperovať v algoritmickej ekonomike, musí zreformovať GDPR, napríklad rozšírením povoleného použitia umelej inteligencie vo verejnom záujme, umožnením opätovného využitia údajov, ktoré predstavuje len minimálne riziko, a to bez penalizácie automatizovaného rozhodovania.
Vzhľadom na to, že GDPR je relatívne nové nariadenie, môžu byť niektorí tvorcovia politiky EÚ v tejto chvíli skeptickí, pokiaľ ide o jeho revíziu. Aj keď GDPR prinieslo určité výhody pre podniky aj spotrebiteľov, z mnohých ukazovateľov vyplýva, že je zrejmé, že nariadenie GDPR prinieslo množstvo nežiaducich následkov. Nezanedbateľná je finančná stránka, Nariadenie ukladá značné náklady organizáciám na zabezpečenie súladu.
Reformy GDPR by mali rozšíriť spracovanie údajov vo verejnom záujme; umožniť opätovné použitie údajov, ktoré predstavujú iba minimálne riziko; nepenalizovať automatizované rozhodovanie. Tieto reformy by mali prebehnúť rýchlo, pretože čas má zásadný význam. Mnoho krajín napreduje vo vývoji a nasadzovaní umelej inteligencie rýchlo – a podniky v týchto krajinách budú mať výhodu oproti európskym spoločnostiam. Spoločnosti, na ktoré sa vzťahuje nariadenie GDPR, budú čeliť regulačnému prostrediu, ktoré sťažuje technologický vývoj. Nariadenie GDPR malo množstvo neželaných negatívnych dôsledkov pre konkurencieschopnosť EÚ v oblasti umelej inteligencie. Keďže nariadenie GDPR bolo pôvodne vypracované v roku 2014, predtým, ako sa rozšírila informovanosť o strojovom učení, tvorcovia politík nezohľadnili vplyv nariadenia na umelú inteligenciu. Nariadenie GDPR organizáciám sťažilo zhromažďovanie a zdieľanie údajov. Spoločnostiam navyše sťažuje používanie aplikácií umelej inteligencie, ktoré automatizujú rozhodovanie týkajúce sa jednotlivcov využívajúcich osobné údaje.[7] Výsledkom je, že nariadenie GDPR spôsobilo EÚ konkurenčnú nevýhodu vo vývoji a využívaní umelej inteligencie.
GDPR všeobecne zakazuje organizáciám používať údaje na akékoľvek iné účely ako tie, na ktoré ich prvýkrát zhromaždili. V článku 5 sa vyžaduje, aby sa údaje „zhromažďovali na konkrétne určené, výslovne uvedené a legitímne účely a nesmú sa ďalej spracúvať spôsobom, ktorý nie je zlučiteľný s týmito účelmi“ a „aby boli primerané, relevantné a obmedzené na rozsah, ktorý je nevyhnutný vzhľadom na účely, na ktoré sa spracúvajú“.[8] Tieto dve obmedzenia – špecifikácia účelu a minimalizácia údajov – významne obmedzujú inovujúce organizácie. Uložením zbytočných obmedzení na zhromažďovanie a spracovanie údajov GDPR znamená konkurenčnú nevýhodu pre európske firmy v porovnaní s firmami v krajinách, ako je Čína, kde majú spoločnosti prístup k údajom o stovkách miliónov používateľov internetu a mobilných telefónov.
GDPR takisto obmedzuje spôsob, akým organizácie používajú osobné údaje na automatické rozhodovanie o jednotlivcoch, a to dvoma spôsobmi.
Po prvé, článok 22 nariadenia GDPR ustanovuje právo dotknutej osoby „na to, aby sa na ňu nevzťahovalo rozhodnutie, ktoré je založené výlučne na automatizovanom spracúvaní, vrátane profilovania, a ktoré má právne účinky, ktoré sa jej týkajú alebo ju podobne významne ovplyvňujú.“[9] To znamená, že kedykoľvek spoločnosti používajú umelú inteligenciu na rozhodovanie o jednotlivcoch, (napríklad na rozhodovanie o tom, či banka poskytne uchádzačovi pôžičku), dotknutá osoba má právo na to, aby dané rozhodnutie skontroloval človek. Táto požiadavka sťažuje automatizáciu mnohých procesov a navyše nechať ľudí kontrolovať automatizované rozhodnutia je veľmi nákladné. Táto požiadavka obmedzuje životaschopnosť použitia umelej inteligencie na automatizáciu mnohých procesov zahŕňajúcich osobné údaje. Tieto požiadavky navyše predražujú automatizované rozhodovanie. Výsledkom je, že nariadenie GDPR motivuje spoločnosti, aby pri rozhodovaní využívali ľudí a manuálnu prácu, aj keď je to menej efektívne, drahšie a pomalšie.
Po druhé, články 13–15 požadujú, aby organizácie poskytovali jednotlivcom „zmysluplné informácie o použitom postupe“ pri automatizovaných rozhodnutiach. To znamená, že firmy musia byť schopné vysvetliť, ako systém umelej inteligencie prijíma rozhodnutia, ktoré majú výrazný vplyv na jednotlivcov. Zatiaľ čo usmernenia EÚ objasňujú, že tieto požiadavky nevyžadujú úplné zverejnenie algoritmu, poskytované informácie by mali byť „dostatočne komplexné na to, aby dotknutá osoba mohla pochopiť dôvody rozhodnutia“.[10] Nie vždy je možné vysvetliť správanie niektorých systémov umelej inteligencie, napríklad tých, ktoré zahŕňajú neurónové siete, pretože sa správajú osobitným spôsobom. To znamená, že organizácie nemôžu vždy vyhovieť požiadavkám na vysvetlenie logiky algoritmického rozhodovacieho procesu. Výsledkom je, že tieto ustanovenia GDPR prinútia mnoho podnikateľov nepoužívať určité typy umelej inteligencie, najmä tie sofistikovanejšie, aj keď môžu byť presnejšie, bezpečnejšie a efektívnejšie ako iné možnosti.
Záver
Umelá inteligencia je hybnou silou inovácie. Zatiaľ čo EÚ vynakladá ambiciózne úsilie na urýchlenie prijatia umelej inteligencie, jej nariadenia o ochrane údajov bránia firmám v tom, aby využívali veľké objemy údajov na vývoj a nasadenie systémov strojového učenia a aby využívali systémy umelej inteligencie zahŕňajúce automatizované rozhodovanie v mnohých odvetviach. Bez reforiem GDPR bude EÚ čeliť tvrdej globálnej konkurencii v kľúčových odvetviach svojej ekonomiky, pretože ostatné národy napredujú v používaní umelej inteligencie omnoho rýchlejšie.
Zoznam prameňov:
[1]) Táto práca bola podporovaná Agentúrou na podporu výskumu a vývoja na základe Zmluvy č. APVV-16-0521.
[2]) Táto práca bola podporovaná Agentúrou na podporu výskumu a vývoja na základe Zmluvy č. APVV-16-0521.
[3]) Smernica Európskeho parlamentu a Rady 95/46/EHS z 24. októbra 1995 o ochrane fyzických osôb pri spracovaní osobných údajov a voľnom pohybe týchto údajov
[4]) Nariadenie Európskeho Parlamentu a Rady (EÚ) 2016/679 z 27. apríla 2016 o ochrane fyzických osôb pri spracúvaní osobných údajov a o voľnom pohybe takýchto údajov, ktorým sa zrušuje smernica 95/46/ES (všeobecné nariadenie o ochrane údajov)
[5]) Tamtiež.
[6]) Nariadenie Európskeho Parlamentu a Rady (EÚ) 2018/1807 zo 14. novembra 2018 o rámci pre voľný tok iných ako osobných údajov v Európskej únii
[7]) Wallace, N.; Castro, D.: “The Impact of the EU’s New Data Protection Regulation on AI” (Center for Data Innovation). Dostupné online: http://www2.datainnovation.org/2018-impact-gdpr-ai.pdf, 30.11.2020
[8]) Nariadenie Európskeho Parlamentu a Rady (EÚ) 2016/679 z 27. apríla 2016 o ochrane fyzických osôb pri spracúvaní osobných údajov a o voľnom pohybe takýchto údajov, ktorým sa zrušuje smernica 95/46/ES (všeobecné nariadenie o ochrane údajov)
[9]) Tamtiež.
[10]) Usmernenia k automatizovanému individuálnemu rozhodovaniu a profilovaniu na účely nariadenia 2016/679
12.1.2024
12.1.2024
1.3.2022
1.3.2022
1.3.2022
1.3.2022
1.3.2022
1.3.2022
25.2.2022
25.2.2022
25.2.2022
25.2.2022
25.2.2022
25.2.2022
25.2.2022
25.2.2022
25.2.2022
1.3.2022
25.2.2022
4.1.2022