Tekoälyasetuksen vaatimukset

Juridinen tuki tekoälyn käyttöön

EU:n tekoälyasetus luo säännöt tekoälyn kehittämiselle ja käytölle Euroopassa. Moni organisaatio pohtii samoja asioita:

  • mitä EU:n tekoälyasetus vaatii?

  • miten valmistautua tekoälyasetukseen?

  • mitä ovat tekoälyn riskit?

Tarjoamme tukea tekoälyn vastuulliseen kehittämiseen ja käyttämiseen. Avustamme esimerkiksi tekoälyn riskiarvioinnissa, roolien määrittelyssä ja dokumentoinnissa.

Tekoälyn vastuullinen käyttö auttaa vähentämään riskejä seuraamuksista (jopa 35 miljoonan sakot) ja parantaa asiakkaiden luottamusta. Vaatimustenmukaisuus on usein myös pakollinen vaatimus kilpailutuksissa ja asiakassopimuksissa.

Ota yhteyttä, varmistetaan yhdessä tekoälyn vaatimusten täyttäminen. Tutustu myös tutkimuspalveluihimme, jos hyödynnät tekoälyä tutkimuksessa.

Mitä tekoälyasetus vaatii?

Tekoälyasetuksen vaatimukset

Tekoälyasetus edellyttää mm. tekoälyn riskien tunnistamista, roolien määrittelyä, läpinäkyvyyttä ja dokumentointia.

Osa tekoälyasetuksen vaatimuksista on jo nyt voimassa. Jokaisen organisaation täytyy siis jo nyt varmistaa, että:

  • sillä ei ole käytössä kiellettyjä tekoälyjärjestelmiä

  • henkilöstö on riittävästi koulutettu tekoälystä

  • yleiskäyttöisiä tekoälymalleja koskevia vaatimuksia noudatetaan.

Osa vaatimuksista, esimerkiksi korkean riskin tekoälyjärjestelmistä, tulee voimaan vuonna 2026. Valmistautuminen on tärkeää aloittaa viivytyksettä.

Miten tekoälyasetusta voi käytännössä noudattaa?

Tekoälyasetuksen keskeiset vaatimukset voidaan parhaiten toteuttaa luomalla tekoälyn hallintamalli. Hyvään alkuun pääsee myös laatimalla tekoälykartoituksen ja -politiikan sekä järjestämällä henkilöstölle tekoälykoulutuksen.

Avustamme kaikissa tekoälyasetuksen (AI Act) vaatimuksissa selkeästi ja asiantuntevasti. Lue lisää tekoälypalveluistamme alta.

Katso myös tutkimus-, sopimus- ja muut compliance-palvelumme.

Kysy lisää

Palvelumme

  • Hallintamallit ja tekoälypolitiikka

    Avustamme tekoälylainsäädännön noudattamisessa ja tekoälyn hallinnoinnissa.

    Käytännön esimerkkejä:

    - Tekoälypolitiikka (räätälöity organisaation toimialan mukaan)

    - Tekoälyn hallintamalli

    - Tekoälyasetukseen valmistautumisen tuki

  • Tekoälykoulutus

    Toteutamme räätälöityjä koulutuksia tekoälystä johdolle ja henkilöstölle. Tekoälylukutaidon varmistaminen on lakisääteinen velvollisuus.

    Käytännön esimerkkejä:

    - Tekoälyasetus ja johdon vastuu (1h koulutus)

    - Tekoälylukutaitoa henkilöstölle- koulutus

    - Materiaalipaketit sisäisen koulutuksen tueksi

  • Lakisääteinen dokumentointi

    Tuemme tekoälyyn liittyvässä lakisääteisessä dokumentoinnissa.

    Käytännön esimerkkejä:

    - Tekoälyjärjestelmän vaikutustenarviointi (FRIA)

    - Dokumenttimallit tekoälyjärjestelmän käyttöönottoon

  • Muu tekoälyyn liittyvä tuki

    Tarjoamme tapauskohtaista tukea esimerkiksi roolien tai riskitason määrittelyyn, tekoälystä sopimiseen ja eettisten vaatimusten huomiointiin.

    Käytännön esimerkkejä:

    - roolien arviointi

    - tekoäly tieteellisessä tutkimuksessa tai terveydenhuollossa

    - kansainväliset tekoälystandardit ja sääntely

 Usein kysytyt kysymykset tekoälystä (UKK)

  • EU:n tekoälyasetus on uutta lainsäädäntöä (asetus), jota sovelletaan kaikkiin EU:n markkinoille asetettuihin tai EU:ssä käytettäviin tekoälyjärjestelmiin. Siitä saatetaan käyttää myös termiä tekoälysäädös.

    Uusi lainsäädäntö asettaa monia velvoitteita. Vaatimusten laajuus riippuu organisaation (tai muun tahon) roolista ja järjestelmän riskitasosta. Tekoälyasetuksen rikkomisesta voidaan määrätä jopa 35 miljoonan euron sakkoja.

  • EU:n tekoälyasetus luokittelee tekoälyjärjestelmät neljään riskiluokkaan.

    Kestämätön riski– tekoälyjärjestelmät, jotka uhkaavat perusoikeuksia, ovat kiellettyjä eikä niitä saa kehittää tai käyttää EU:ssa. Käytännön esimerkkejä: tekoälyjärjestelmä, jota käytetään sosiaaliseen pisteytykseen tai haavoittuvuuksien hyödyntämiseen.

    Korkea riski – korkean riskin järjestelmien on täytettävä tiukat vaatimukset (esim. tietoturva, hallintamallit). Monet tekoälyn käyttötapaukset terveydenhuollossa, koulutuksessa, kriittisessä infrastruktuurissa ja henkilöstöhallinnossa kuuluvat tähän luokkaan.

    Käytännön esimerkkejä: tekoälyjärjestelmä, jota käytetään syövän tunnistamiseen tai työnhakijoiden arviointiin.

    Rajoitettu riski – rajoitetun riskin tekoälyjärjestelmissä on noudatettava läpinäkyvyysvelvoitteita. Käyttäjälle tulee esimerkiksi kertoa, jos hän on vuorovaikutuksessa tekoälyn kanssa.

    Käytännön esimerkki: tekoälyavusteinen asiakaspalvelu-chatbot (huom. julkisella sektorilla on erityisiä rajoituksia)

    Vähäinen riski – vähäisen riskin järjestelmiin ei kohdistu erityisiä velvoitteita tekoälyasetuksesta.

    Käytännön esimerkki: yksinkertainen roskapostin luokittelu.

  • Nyt. Osa tekoälyasetuksen vaatimuksista on jo nyt voimassa. Esimerkiksi vaatimus tekoälylukutaidosta ja kiellettyjä käyttötarkoituksia koskevat kohdat ovat jo voimassa.

    Tekoälyasetuksen korkeariskisiä tekoälyjärjestelmiä koskevat kohdat tulevat voimaan seuraavaksi, vuonna 2026.

  • Kaikki alkaa selkeästä kokonaiskuvasta tekoälyn käytöstä. Kartoita ensin, miten tekoälyä tällä hetkellä hyödynnetään organisaatiossasi. Sen perusteella voit priorisoida tekoälyjärjestelmän riskitason mukaan.

    Helppo tapa päästä alkuun on hyödyntäää jo olemassa olevia prosesseja, esimerkiksi tietosuojan riskien arviointia. Nimeä vastuuhenkilö tai -taho myös tekoälyn hallinnoinnille.

    ‍ Tiivistetysti: kartoita, priorisoi ja luo hallintaprosessi.

    Vinkki: Jos kaipaat selkeyttä tai tarkempaa ohjeistusta tekoälyn hallinnointiin, ota yhteyttä Regulynin asiantuntijaan.

“Saimme selkeitä neuvoja tekoälypolitiikan laatimiseen niin, että se täyttää myös lainsäädännön vaatimukset.”

— Teknologiajohtaja, tutkimussektori