EU:n tekoälylaki: Luotettavaan sisäiseen tietoon pohjautuvat tekoälyratkaisut ovat avainasemassa uuden lainsäädännön noudattamisessa
Kirjoittanut Yohan Lobo, Industry Solutions Manager, rahoituspalvelut, M-Files
EU:n parlamentti on hyväksynyt maailman ensimmäisen tekoälyn sääntelyyn tarkoitetun lakikokonaisuuden. ”Tekoälylain” mukaan tekoälyratkaisut luokitellaan eri riskitasoille, ja tietyt niistä kielletään kokonaan niiden korkean riskin vuoksi. Laki astuu voimaan 12 kuukauden kuluttua säätämisestä ja vaatii vielä EU:n jäsenvaltioiden ministerien virallisen hyväksynnän.
Generatiivisen tekoälyn sääntely jakautuu kahteen luokkaan: Ensimmäisessä luokassa vaaditaan EU:n tekijänoikeuslainsäädännön noudattamista ja yhteenvetoja tekoälymallien kouluttamiseen käytetystä sisällöstä. Toisen, korkean riskin luokan, sääntelyyn sisältyy säännöllistä raportointia ja tiukempia testausvaatimuksia.
Miten uusi lainsäädäntö vaikuttaa yrityksiin, jotka käyttävät GenAI-ratkaisuja EU:ssa ja sen ulkopuolella?
Uuden lainsäädännön haasteet
Suurin osa tekoälymalleista kuuluu sääntelyn ensimmäiseen luokkaan, jossa organisaatioiden on todistettava malliensa tietopohjan luotettavuus. Toisen luokan mallit katsotaan 'systeemiriskiksi' julkiselle turvallisuudelle. Ne ovat lähes inhimillisen älykkäitä, ja niiden testauksessa käytetään vastustavia menetelmiä, joissa asiantuntijat pyrkivät ohittamaan mallien turvatoimet.
Yritysten, jotka kehittävät GenAI-työkaluja ensimmäisen sääntelyluokan mukaisesti, on ymmärrettävä, miten niiden kehittämät ratkaisut tekevät johtopäätöksiä ja oletuksia tukeutuen tietoon. Jos käytetty tieto on tekijänoikeuksien mukaista ja todistetusti luotettavaa, organisaatioilla tuskin on vaikeuksia noudattaa uusia sääntöjä.
EU-lain globaalit vaikutukset
Lain vaikutukset ulottuvat todennäköisesti myös EU:n ulkopuolelle, samalla tavoin kuin yleisen tietosuoja-asetuksen (GDPR) käyttöönotto aikoinaan. GDPR oli EU:sta lähtöisin oleva aloite, mutta se muutti merkittävästi kansainvälisten organisaatioiden tietojen hallintatapoja.
Vaikka EU:n ulkopuolisten maiden yritykset eivät suoraan kuulu lain piiriin, on hyvin todennäköistä, että muut maat ja hallinnot ottavat mallia onnistuneesta lainsäädännöstä. Siksi onkin tärkeää, että GenAI-malleja kehittävät yritykset ennakoivat, miten hallitukset saattavat uudistaa tekoälyjärjestelmien valvontaa ja miettiä, miten ne voisivat sopeutua tuleviin sääntelymuutoksiin.
Luottamus, turvallisuus ja tarkkuus
Nyt kun GenAI on murtautunut valtavirtaan, yritykset eri toimialoilla kiirehtivät ottamaan uusia ratkaisuja käyttöön pysyäkseen kilpailun kärjessä. Kuitenkin yritykset voivat ottaa GenAI-työkalun käyttöön vain, jos ne ovat varmoja sen turvallisuudesta ja luotettavuudesta. Onkin elintärkeää, että GenAI-työkalut käyttävät vain tarkkoja ja hyvin järjestettyjä tietoja – tyypillisesti siis samoja tietoja, joita yritys itsekin hallinnoi ja käyttää – täyttääkseen EU:n tekoälylain vaatimukset.
Kun yritys hyödyntää sisäistä tietoa tekoälymallissaan, se voi suhtautua luottavaisesti tekoälyn tuottamiin tuloksiin. Samalla se parantaa tuottavuutta ja varustaa tietotyöntekijät nopeilla työkaluilla tiedonhakuun, -pääsyyn ja -analyysiin. Kun tekoälymalli oppii käytössä olevasta tiedosta ja työntekijöiden tarpeista, sen älykkyys ja intuitio kehittyvät entisestään, mikä taas parantaa käyttäjien saamaa hyötyä.
Luottamus, turvallisuus ja tarkkuus linkittyvät tiiviisti toisiinsa: Yritysten, jotka haluavat noudattaa EU:n tekoälylakia, kannattaa aloittaa tietojensa asianmukaisesta järjestämisestä ympäri organisaatiota. Näin ne pääsevät luomaan vahvan perustan turvalliselle ja lainmukaiselle GenAI-työkalulle, joka paitsi automatisoi tietotyötä, myös lisää tehokkuutta tietotyöntekijöiden prosesseissa.
Related Articles
Sorry, we couldn't find any posts. Please try a different search.