Euroopan unionin verkko- ja tietoturvadirektiivi (NIS2) tuo merkittävän päivityksen...
Opas tekoälyassistenttien tietoturva- ja tietosuojariskien hallintaan
Ovatko työntekijäsi kartalla tekoälyn kokousavustajiin liittyvistä tietoturva- ja compliance-riskeistä? Tämä opas auttaa organisaatiotasi navigoimaan tekoälyassistenttien käytön mahdollisissa sudenkuopissa.
AI-kokousassistenttien riskit
AI-assistentit työskentelevät 24/7 eivätkä pidä vapaapäiviä. Jotkut jopa ilmaiseksi. Tekoäly lupaa parantaa tuottavuutta online-kokouksissa poistamalla manuaalisen muistiinpanojen tekemisen ja mahdollistamalla monenlaiset kokousten jälkeiset analyysit. Homman juju on siinä, että tekoälyavustajan on tallennettava kokous alusta loppuun. Mikä voisi mennä pieleen?
Tekoälyassistentit voivat päästä käsiksi luottamuksellisiin tietoihin, ja niistä voi tulla mahdollisia tietomurtojen lähteitä. AI-assarit myös keräävät ja tallentavat kokousosallistujien henkilötietoja, mikä vaatii tarkkuutta tietosuoja-asetusten noudattamisen varmistamiseksi.
Onko organisaatiossasi jo selviää, milloin ja miten tekoälyassistentteja hyödynnetään online-kokouksissa, ja miten samalla suojataan luottamuksellisia tietoja?
AI-assistentteihin liittyvien tietoturva- ja tietosuojariskien hallinta
Organisaatiot voivat toteuttaa erilaisia toimia AI-kokousassistentteihin liittyvien riskien hallitsemiseksi:
-
Toimittajien hallinta ja riskien arviointi
Työntekijät saattavat ottaa käyttöön ilmaisia AI-assistentteja ohi hankintaprosessien riskejä ymmärtämättä. Tekoälyagenttien palveluntarjoajien luotettavuus tulisi arvioida osana normaalia alihankkija-arviointiprosessia ja tunnistetut riskit huomioida sopimuksissa. Myös tietosuojavaikutusten arviointi (DPIA) voi olla tarpeen yksityisyyden suojaan liittyvien riskien tunnistamiseksi ennen uuden tekoälyassistentin käyttöönottoa.
-
Kokousalustan turvallisuusasetukset
Vaikka tekoälyavustajia ei hyväksyttäisikään sisäiseen käyttöön, työntekijät saattavat silti päätyä tapaamisiin, joissa organisaation ulkopuolinen taho hyödyntää AI-assistenttia. Kokousalustalla voidaan estää ulkopuolisten käyttäjien osallistuminen tai sallia vain tunnistettujen käyttäjien osallistuminen. Tällainen tiukka käytäntö estää tekoälyavustajien liittymisen, mutta voi myös haitata organisaation toimintaa. Toinen lähestymistapa riskien hallintaan on rajoittaa ulkopuolisten käyttäjien oikeuksia kokouksissa. On tärkeää keskustella niiden työntekijöiden kanssa, joihin asetukset vaikuttavat, ennen käytänteiden muuttamista, jotta ymmärretään verkkokokouksiin osallistumisen rajoittamisen vaikutukset liiketoimintaan.
-
Pääsynvalvonta
AI-avustajien käyttöön liittyvien tietoturva- ja tietosuojariskien minimoimiseksi on tärkeää on hallita aktiivisesti sitä, miten tallenteita ja tekoälyn tuotoksia tallennetaan ja kuka niihin pääsee käsiksi. Pääsyn rajoittaminen tarvepohjaisesti ja lisäturvaominaisuuksien, kuten monitekijätodennuksen (MFA) ja yrityksen SSO-kirjautumisen, käyttöönotto ovat tärkeässä asemassa kokoustallenteiden ja tekoälysynteesien luottamuksellisuuden suojaamisessa.
Varmista tietosuojavaatimustenmukaisuus
Kun työntekijät käyttävät tekoälyassistentteja kokouksissa, vastuu asiaankuuluvien tietosuojasäännösten noudattamisesta on organisaatiolla.
Varmista, että työntekijät osaavat informoida kaikkia kokousosallistujia tekoälyavustajien käytöstä ja pyytää suostumukset henkilötietojen käsittelyyn.
Tarkista tekoälypalvelutarjoajien tietoturvakäytännöt ja varmista, että ne vastaavat organisaatiosi vaatimuksia. Arvioi myös miten palveluntarjoaja käsittelee ja suojaa henkilötietoja, ja onko palveluntarjoajalla asianmukaiset tietosuojakäytännöt. Selvitä lisäksi, missä palveluntarjoaja käsittelee henkilötietoja ja minne niitä siirretään. Mikäli tietoja siirretään toisiin maihin, varmista että tältäkin osin tietosuojalainsäädännön asettamat vaatimukset toteutuvat.
Tekoälyavustajan käsittelemää ja tuottamaa tietoa koskee myös tietosuojan säilytysaikavaatimukset. Vastuu säilytysaikojen toteutumisesta on niinikään organisaatiolla joka palvelua käyttää, ei palveluntarjoajalla.
Työntekijöiden kouluttaminen tekoälyavustajien turvalliseen käyttöön
Työntekijöiden kouluttaminen turvallisesta käytöstä ja yksityisyydensuojaa koskevista oikeuksista on olennainen osa tekoälyassistenttien käytön riskienhallintaa.
Pidä työntekijät ajan tasalla tekoälyavustajiin liittyvistä riskeistä ja haavoittuvuuksista, ja opasta assistenttien turvallisessa ja sääntöjenmukaisessa käytössä. Muista, että riskit eivät liity vain luottamuksellisia tietojen vuotamiseen. Työntekijöiden on osattava tunnistaa, milloin tekoälyn tuotoksiin voi luottaa. On myös tärkeää kouluttaa työntekijöitä tunnistamaan ja raportoimaan mahdollisista tietoturvaloukkauksista.
Työntekijöiden on myös tärkeää ymmärtää oikeutensa ja velvollisuutensa käyttäjinä ja osallistujina kokouksissa, joissa käytetään tekoälyavustajia. CyberCoachin avulla on helppo tarjota roolipohjaista koulutusta tekoälyn hyödyntämiseen verkkokokouksissa, joka on aina ajan tasalla.
Tekoälyassistenttien käyttöä kokouksissa koskevien käytäntöjen luominen
Selkeät käytännöt auttavat varmistamaan tekoälyavustajien asianmukaisen ja turvallisen hyödyntämisen kokouksissa.
Käytännöissä kannattaa määritellä milloin tekoälyassistenttien käyttö kokouksissa on tarkoituksenmukaista, ja antaa ohjeita niiden käytöstä. Joskus on paikallaan esimerkiksi linjata, että tekoälyavustajia ei saa käyttää keskusteluissa, joihin liittyy tietynlaisia luottamuksellisia tietoja.
Käytäntöjen tulee vastata tietosuoja- ja compliance-vaatimuksiin. Niihin voi sisältyä ohjeita osallistujien suostumuksen hankkimisesta, henkilötietojen käsittelystä ja asiaankuuluvien säännösten noudattamisesta.
Lisäksi organisaatioiden olisi laadittava menettelyt epäiltyihin tietoturva- ja tietosuojahäiriöihin vastaamiseen ja raportoimiseen. Näin varmistat oikea-aikaisen ja tehokkaan reagoinnin mahdollisiin ongelmiin.
Luomalla nämä käytännöt yhdessä AI-assistentteja työssään käyttävien työntekijöiden kanssa voit edistää tekoälypalveluiden tehokasta hyödyntämistä riskit huomioiden, sekä aktiivista tietoturvakulttuuria organisaatiossasi.
Tarvitseeko organisaatiosi roolipohjaista tietoturva- ja tietosuojakoulutusta?
CyberCoach kouluttaa käyttäjät turvallisiin online-kokouksiin, tekoälyassistenttien käyttöön ynnä muuhun.