Tekoälyä koskevan asetuksen valmistelu etenee EU:ssa

news
17 Mar 2023
Category
Insights

Tekoälyn kehittyminen on tällä hetkellä nopeaa ja siinä nähdään sekä suuria mahdollisuuksia että riskejä yhteiskunnan kaikilla tasoilla. EU:lla on tavoitteena olla globaali johtaja turvallisen ja eettisen tekoälyn kehityksessä.

”Tekoälyasetus on hämmästyttävän koherentti sääntelykokonaisuus ilmiöstä, joka abstraktisuutensa ja kehitysnopeutensa takia tuntuisi olevan melkein mahdoton kohde sääntelylle”, sanoo osakas Markus Oksanen, Head of IP and Technology, Finland.

Euroopan unionin neuvosto vahvisti yhteisen kantansa tekoälysäädöksestä loppuvuonna 2022. Neuvosto voi aloittaa kolmikantaneuvottelut parlamentin kanssa yhteisymmärryksen saavuttamiseksi asetusehdotuksesta, kun parlamentti on vahvistanut oman kantansa.

Millaisia tekoälyjärjestelmiä asetus koskee?

Tekoälyasetusta sovelletaan sellaisiin tekoälyjärjestelmiin (AI systems), jotka täyttävät jonkin tason itsenäisyyden (autonomy) vaatimuksen. Tällaiset järjestelmät voivat perustua koneoppivaan teknologiaan tai datamalleihin. Asetuksessa ei pyritä tarjoamaan teknisesti suljettua määritelmää tekoälylle, mutta selvää on, että perinteiset proseduraaliset ohjelmistot eivät täytä tekoälyjärjestelmältä vaadittua itsenäisyyden vaatimusta.

Tekoälyasetus kieltää kokonaan sellaisten AI-järjestelmien kehittämisen, jotka sisältävät vahingollisia manipuloivia elementtejä, väärinkäyttävät erityisryhmien haavoittuvuuksia tai väärinkäyttävät ihmisten käyttäytymisestä kerättyä tietoa. Lisäksi asetuksessa määritellään tarkat edellytykset, jotka tulee huomioida kehitettäessä asetuksen määrittelemiä korkean riskin tekoälyjärjestelmiä (high-risk AI systems).

Korkean riskin AI-järjestelmät

Korkean riskin AI-järjestelmiä ovat esim. biometriseen tunnistamiseen liittyvät järjestelmät, kriittisen infrastruktuurin turvallisuutta koskevat järjestelmät, luottokelpoisuuden arviointiin liittyvät järjestelmät, HR-prosesseihin liittyvät järjestelmät, yhteiskunnan tukipalveluihin liittyvät järjestelmät ja erilaiset oikeushallinnon järjestelmät.

Korkean riskin AI-järjestelmän tarjoajan täytyy rekisteröityä EU:n tietokantaan. Tietokanta on julkinen.

Korkean riskin AI-järjestelmien jakelijoille asetetaan velvoite ryhtyä toimiin, mikäli ilmenee, että järjestelmä ei täytä asetuksen vaatimuksia. Tämän takia jakelijoille syntyy intressi sopimuksellisesti siirtää edustamiensa järjestelmien lainmukaisuutta koskevat vastuut soveltuvin osin päämiehelleen.

Yleiskäyttöiset AI-ohjelmistot

Sääntelyn soveltuminen sellaisiin yleiskäyttöisiin AI-ohjelmistoihin (general purpose AI systems), joita voidaan käyttää komponenttina korkean riskin AI-järjestelmissä, on jätetty auki. Komissio tulee myöhemmin antamaan tarkempaa sääntelyä siitä, miten korkean riskin AI-järjestelmiä koskevat vaatimukset soveltuvat yleiskäyttöisiin ohjelmistoihin. Tarkempi sääntely tulee voimaan 18kk sen antamisesta.

Yleiskäyttöisten ohjelmistojen valmistajat voivat tuotedokumentaatiossa sulkea pois tuotteen käytön korkean riskin järjestelmissä. Oletettavaa onkin, että tätä mahdollisuutta tullaan käyttämään paljon.

Tekoälyjärjestelmien käyttöönkin liittyy velvoitteita

Korkean riskin AI-järjestelmän käyttämistä koskee omat velvoitteet mm. asianmukaisen valvonnan järjestämisen osalta.

”Useimmissa tapauksissa käyttäjien tulee myös tehdä GDPR:n mukainen, tietosuojaa koskeva vaikutustenarviointi (DPIA)”, Markus Oksanen sanoo.

Sääntelyssä tunnistetaan myös tilanne, jossa kuvia tai muuta materiaalia manipuloidaan tekoälyllä siten, että se muistuttaa jotain muuta henkilöä. Käyttäjän täytyy tällöin tuoda selkeästi esiin, että materiaali on luotu tekoälyllä. ChatGPT:n kaltaista tekstin manipulointia tekoälyasetus ei vielä tunnista.

Ohessa olevassa pdf:ssä on tarkemmin kuvattu tekoälyasetuksen keskeinen sisältö.

Ota yhteyttä, jos tarvitsette juridista tukea uuden tekoälyasetuksen edellyttämiin toimenpiteisiin yrityksessänne.