Mākslīgais intelekts saskaņā ar likumu un sociālajiem jautājumiem.
Juridiskā uzraudzība Nr. 34 — 2021. gada aprīlī
Mākslīgais intelekts saskaņā ar likumu un sociālajiem jautājumiemMākslīgais intelekts un drošība mūsdienās ir saistīti politiskajā un juridiskajā diskursā. Cik lielā mērā mūsu tiesiskā regulējuma pielāgošana tādiem izaicinājumiem kā terorisms var — vai tai vajadzētu — ietvert jaunākos tehnoloģiskos sasniegumus?
Pavasara sākumā valda pretrunas, pieņemot globālās novērošanas likumu un jaunos pretterorisma likuma pasākumus.
Plaši izplatītas datu vākšanas ierobežojumi
Pašreizējā kontekstā mēs atzīmējam vairāku dalībnieku, tostarp Valsts padomes, ietekmi. pilsoņu brīvību asociācijas un Eiropas Savienības Tiesa.
Pēdējā minētā tiesa 2020. gada 6. oktobrī pasludināja divus spriedumus, kas attiecas uz Franciju saistībā ar tās izlūkošanas likumu un savienojuma datu saglabāšanas praksi.
Tiesa faktiski ir atgādinājusi par plaši izplatītas un nediferencētas sakaru datu vākšanas no operatoriem neievērošana pamattiesībāsTiesa precizē, ka šādai datu vākšanai ir jābūt izņēmuma raksturam, proti, valsts drošības mērķiem un stingri ierobežotā laika periodā.
Pamatojoties uz šiem asociāciju lēmumiem, Valsts padome savā 21. aprīļa lēmumā veica delikātu saskaņošanas procedūru starp Eiropas Savienības tiesību aktiem un valsts mērķiem cīņā pret terorismu un noziedzību, lūdzot valdībai veikt dažas korekcijas savā vispārējās uzraudzības politikā (periodiska datu vākšanu attaisnojošo draudu atkārtota pārbaude, Nacionālās izlūkošanas metožu kontroles komisijas (CNCTR) atzinumu saistošs un vairs nekonsultatīvs spēks).
Šos secinājumus asi kritizē asociācijas, kas uzsver nepieciešamo pielāgojumu nepietiekamību un Valsts padomes ļoti plašo "nacionālās drošības" jēdziena interpretāciju, kas sniedzas tālāk par cīņu pret terorismu, iekļaujot, piemēram, ekonomisko spiegošanu, narkotiku tirdzniecību vai nedeklarētu demonstrāciju organizēšanu, tādējādi pārkāpjot Eiropas tiesību aktus.
Arī La Quadrature du Net un citas apvienības 29. aprīlī nodeva Konstitucionālajai padomei jautājumu par globālās novērošanas likuma likumību, arī pamatojoties uz daudzu likumā paredzēto novērošanas pasākumu nesamērīgo raksturu.
Pretterorisma likuma algoritmi
Diskusijas, ko izraisīja likumprojekts par terorisma aktu novēršanu un izlūkošanu, pārklājas ar šīm debatēm un atdzīvina jautājumus par paredzēto pasākumu samērīgumu.
Mēs jo īpaši atsaucamies uz diviem likumprojekta aspektiem, kas sākotnēji publicētajā versijā bija paredzēti, lai saglabātu algoritmu izmantošanu, lai uzraudzītu interneta lietotāju savienojumus, pamatojoties uz apmeklētajām tīmekļa vietnēm, un apkopotu plaši izplatītus satelītsakaru datus.
28. aprīlī Nacionālajā asamblejā publicētajā projekta versijā šie noteikumi vairs nav iekļauti, un tie būtu jāpielāgo – lai ņemtu vērā Valsts padomes pieprasītos “pielāgojumus” – labojuma vēstulē, kas gaidāma maijā.
Ņemiet vērā, ka CNIL 8. aprīļa atzinums par šo projektu nav publicēts, kā arī Nacionālās izlūkošanas metožu kontroles komisijas atzinums.
Skaidrāks mākslīgā intelekta regulējums nākotnē Eiropas līmenī?
Līdztekus šīm nacionālajām norisēm, Eiropas Komisija 21. aprīlī publicēja priekšlikumu mākslīgā intelekta regulēšanai., ko daži jau uzskata par pārāk ierobežojošu, savukārt citi nosoda tā ierobežojumus.
Komisija plāno aizliegt mākslīgā intelekta izmantošanu, kas pārkāpj ES vērtības un cilvēktiesības, jo īpaši "nepieņemamus" lietojumus, kuru mērķis ir ietekmēt uzvedību vai vērsties pret individuālām ievainojamībām, izmantojot paredzošus algoritmus.
Piemēram, priekšlikums aizliedz "sociālo punktu skaitīšanu". kā tas redzams Ķīnā, izstrādājot lietojumprogrammas, kas ļauj valstij novērtēt katra indivīda sociālo kredītu. Riska analīze (īpaši ārstēšanas metodēm, kas identificētas kā "augsta riska") būs jāveic projektu izstrādātājiem, kuri izmanto mākslīgo intelektu.
Šo principu pārkāpumi, tāpat kā GDPR, var izraisīt naudas sodus līdz 4% no apgrozījuma.
Tomēr priekšlikumā paredzētie ierobežojošie pasākumi neattiecas uz Eiropas Savienības valdībām un valsts iestādēm, kas izmanto mākslīgo intelektu sabiedriskās drošības aizsardzībai.
Daži, tostarp Eiropas Datu aizsardzības uzraudzītājs, pauž nožēlu par moratorija neesamību aktuāliem jautājumiem, piemēram, valsts biometrisko novērošanas kameru izmantošanai reāllaikā.
Lai gan priekšlikums ierobežo šādu izmantošanu, tā joprojām ir iespējama, jo īpaši teroristu uzbrukumu vai noziedznieku meklēšanas kontekstā.
Citi norāda atbildības sloga pārnešana no valsts uz privātiem attīstītājiem, kuriem būs jāveic sava atbilstības analīze par sistēmām, ko viņi ierosina, piemēram, attiecībā uz paredzošo policijas darbu, mākslīgā intelekta izmantošanu patvēruma procedūrās vai darbinieku uzraudzību.
Šīs dažādās norises uzsver debašu jutīgumu, kurās jāņem vērā gan valsts drošības jautājumi, kas ir valstu privilēģija, gan ekonomiskās kārtības aspekti un pamattiesības, ko nosaka tām uzspiestā Eiropas tiesību sistēma.
Eiropas priekšlikums paredz, ka Eiropas Mākslīgā intelekta komitejas izveide, sastāv no dažādām ES dalībvalstīm, Eiropas Komisijas un Eiropas Datu aizsardzības uzraudzītāja. Šī komiteja būs atbildīga par lēmumu pieņemšanu par neatļautām vai augsta riska izstrādēm mākslīgā intelekta jomā.
Risinājuma sākums?
Un arī
Francija:
ANSSI turpina darbu, lai vairotu izpratni par drošības riskiem, ceļvedis tīmekļa vietņu aizsardzībai.
Rokasgrāmatā ir norādīti parametri, kas jānorāda, izstrādājot un integrējot tīmekļa vietni vai tīmekļa lietojumprogrammu, lai garantētu tās drošību.
CNIL publicē jautājumu un atbilžu sarakstu par siekalu testi skolās, ko izmanto Covid-19 skrīninga kontekstā.
Savā astotajā Inovāciju un prognozēšanas piezīmju grāmatiņā CNIL izstrādā Iemesli, kas mudina indivīdu iesniegt sūdzību par savu tiesību neievērošanuViņa min četrus galvenos iemeslus:
- “Kad tiešsaistē pieejamā informācija apdraud indivīdu reputāciju (gandrīz trešdaļa sūdzību);
- Kad viņi kļūst par komerciālas izpētes iejaukšanās upuriem viņu privātajā sfērā (aptuveni 20 % sūdzību);
- Novērošanas gadījumā viņu darba vietā (10 līdz 15 % sūdzības); un visbeidzot
- Kad tie ir reģistrēti valsts failos (banku negadījumi, krimināllietu reģistri).
Eiropa:
Eiropas Savienība: Veselības pases projekts ir diskusiju objekts Eiropas līmenī.
Pēc komitejas un Eiropas Datu aizsardzības uzraudzītāja kopīgā atzinuma tagad ir Eiropas Parlamenta kārta izskatīt šo jautājumu.
Tādējādi tas tika izcelts,
- Nepieciešamība integrēt “privātumu pēc noklusējuma” datu apstrādes sistēmā,
- Centralizētas datubāzes neesamības garantija,
- Skaidra datu pārziņu identifikācija,
- Informācija attiecīgajām personām un
- Ierobežots datu glabāšanas periods.
Eiropas Padome: 28. aprīlī Ministru komiteja pieņēma Deklarāciju par bērnu privātuma aizsardzību digitālajā vidē.
Šīs deklarācijas mērķis ir stiprināt bērnu aizsardzību arvien lielākā viņu dzīves daļā – skolā, draugu lokā vai kultūras vai sporta aktivitāšu kontekstā, īpaši Covid-19 pandēmijas dēļ (tiešsaistes aktivitātes rada lielākus riskus, tostarp digitālās atstumtības risku).
Nīderlande Limburgas apgabaltiesa izskatīja lietu vairākas piekļuves tiesību procedūras, ko ierosinājusi persona ar mērķi saņemt zaudējumu atlīdzību datu pārziņiem, kuri kavējās reaģēt.
Vienmēr pie NīderlandeAmsterdamas apgabaltiesa lika Uber atjaunot sešus vadītāji atlaisti, pamatojoties uz automatizētiem lēmumiemUzņēmumam tika piespriests maksāt 5000 eiro soda maksājumos par katru nokavēto dienu un vairāk nekā 100 000 eiro zaudējumu atlīdzībā.
Saskaņā ar aprīļa vidū publicēto informāciju operators Huawei it kā ieguva piekļuvi Nīderlandes telekomunikāciju tīklam KPN, ļaujot piekļūt klientu, tostarp daudzu valsts politisko lēmumu pieņēmēju, saziņai.
Spānija: Datu aizsardzības iestāde ir brīdinājusi Aizsardzības ministriju.
Iemesls tam ir ieraksti ar kamerām, kas uzstādītas ap ministrijas birojiem – bez jebkādas pierādītas nepieciešamības – autostāvvietas attēlu pieder kaimiņu mājām (paldies GDPRhub wiki par lēmumu sarakstu).
Vācija: Hamburgas federālā uzraudzības iestāde 13. aprīlī paziņoja, ka tā uzsāk Administratīva lieta pret Facebook saistībā ar WhatsApp politikas izmaiņām attiecībā uz personas datu vākšanu.
Lietotāju piekrišanas derīgums tiek apšaubīts, kas attaisno uzraudzības iestādes datu vākšanas iesaldēšanu uz trim mēnešiem, kamēr notiek izmeklēšana.
Starptautiskās:
ASV : Bankās attīstās sejas atpazīšanas sistēma, kas izmanto viedās kameras, lai identificētu savus klientus, darbiniekus un pat “bezpajumtniekus”, kuri var atrasties izplatītāju tuvumā.
Lai gan mākslīgā intelekta izmantošana videonovērošanas kontekstā netiek regulēta vienādi visos Amerikas štatos, FTC (Federālā tirdzniecības komisija) joprojām ir kompetenta pārbaudīt šīs tehnoloģijas lietošanas apstākļus un sankcionēt tās izmantošanu diskriminējošiem mērķiem.
Anna Kristīna Lakoste
Olivier Weber Avocat partnere Anna Kristīne Lakosta ir juriste, kas specializējas datu tiesībās; viņa bija Eiropas Datu aizsardzības uzraudzītāja starptautisko attiecību vadītāja un strādāja pie GDPR ieviešanas Eiropas Savienībā.