- COMP.SEC.100
- 14. Tekoäly ja Formaalit menetelmät turvallisuudessa
- 14.3 Tekoäly ja kyberturvallisuus
Tekoäly ja kyberturvallisuus¶
Tekoäly ja kyberturvallisuus kietoutuvat yhä tiiviimmin yhteen, sillä tekoälyä voidaan käyttää tehokkaasti sekä puolustamiseen että hyökkäämiseen. Monimutkaiset oikeudelliset, poliittiset ja eettiset näkökulmat sekä huoli tietojen validiteetista ovat keskeisiä tekoälyn haasteita.
Tekoälyjärjestelmät voivat analysoida suuria määriä tietoa, tunnistaen poikkeavuuksia ja potentiaalisia uhkia, joita perinteiset menetelmät eivät pystyisi havaitsemaan. Koneoppimismallit voivat ennustaa ja estää tietojenkalastelu- ja palvelunestohyökkäyksiä analysoimalla käyttäytymismalleja ja verkkoliikennettä. Lisäksi tekoäly auttaa automatisoimaan tietoturvatehtäviä, kuten haavoittuvuuksien skannausta ja turvallisuuspäivitysten hallintaa. Tämä mahdollistaa suurten tietomäärien käsittelyn ja vapauttaa ihmisiä entistä strategisempaan työhön.
Tekoälyratkaisujen kyberturvallisuus¶
Myös itse tekoälyjärjestelmät ovat alttiita haavoittuvuuksille, esim.
- Hyökkäykset oppimisprosesseja vastaan. Esim. virheellisen tiedon syöttäminen tekoälylle. Tätä kutsutaan myrkyttämiseksi (poisoning).
- Datan manipulointi. Tekoälyjärjestelmän sisältämää tai tuottamaa dataa muokataan. Esimerkkinä tekoälyjärjestelmä saadaan tuottamaan uskottavalta vaikuttavia virheellisiä vastauksia. Tekoälyn tällaista toimintaa kutsutaan hallusinoinniksi.
- Mallin murrot (model inversion). Tekoälyjärjestelmästä saadaan tietoa, jota ei ollut tarkoitus. Esim. rikosten valmistelu, henkilötiedot ja epäsiveellinen tai laiton materiaali.
- AI Trojan, tekoälyjärjestelmän sisään rakennettu haitallinen toiminnallisuus. Esimerkkinä haitallinen toiminnallisuus voidaan käynnistää vain haluttaessa tietyllä syötteellä.
On tärkeää suojata tekoälyjärjestelmiä koko niiden elinkaaren ajan. Tämä sisältää muun muassa vahvan pääsynhallinnan, turvallisen datan käsittelyn, jatkuvan valvonnan ja säännölliset turvatarkastukset.
Tekoäly ja tekijänoikeudet¶
Tekoäly voi sekä luoda uutta sisältöä että muokata olemassa olevaa materiaalia tavoilla, jotka muuttavat perinteisiä tekijänoikeuskäsityksiä. Tämä herättää kysymyksiä siitä, kenelle tekijänoikeudet kuuluvat: algoritmin kehittäjälle, käyttäjälle vai jollekin muulle?
Tekoälyn luoma sisältö hämärtää rajaa alkuperäisen ja johdannaisen teoksen välillä. Tekoälyalgoritmit pystyvät tuottamaan tekstiä, kuvia, musiikkia ja videoita, jotka voivat olla hyvin samankaltaisia kuin ihmisten tekemä taide ja viestintä. Lisäksi tekoäly voi upottaa tuotoksiinsa suojattua materiaalia, mikä tekee tekijänoikeuksien valvonnasta ja loukkausten havaitsemisesta entistä vaikeampaa.
Toisaalta tekoäly voi auttaa suojelemaan tekijänoikeuksia ja torjumaan tekijänoikeusrikkomuksia. Tekoälypohjaiset työkalut voivat skannata valtavia määriä verkkosisältöä nopeasti ja tarkasti tunnistaen tekijänoikeuksien loukkauksia, kuten luvattomia kopioita ja plagiointia. Tekoälytyökalujen avulla voidaan automaattisesti seurata ja valvoa sisällön käyttöä, mikä helpottaa tekijänoikeuksien haltijoiden mahdollisuuksia havaita ja reagoida rikkomuksiin. Lisäksi tekoäly voi auttaa luomaan vesileimoja ja muita suojatoimia, jotka vaikeuttavat sisällön luvatonta käyttöä ja jakelua.
Kyberhyökkäykset¶
Tekoälyllä on kasvava rooli kyberhyökkäyksissä, sillä se mahdollistaa entistä kehittyneempien ja kohdennettujen hyökkäysten suunnittelun ja toteutuksen. Hyökkääjät voivat hyödyntää tekoälyä analysoidakseen suuria määriä tietoa tunnistaakseen haavoittuvuuksia ja optimoidakseen hyökkäysstrategioitaan. Esimerkiksi tekoälyavusteiset haittaohjelmat voivat oppia ja mukautua reaaliajassa, kiertäen perinteisiä tietoturvajärjestelmiä. Lisäksi tekoälyllä voi automatisoida monimutkaisia hyökkäysprosesseja, kuten tietojenkalastelua (phishing), mikä lisää niiden tehokkuutta ja vaikeuttaa niiden havaitsemista.
Kyberhyökkäysten torjunnassa ja tietoturvan ylläpitämisessä tekoäly on tärkeä työkalu. Se voi analysoida verkkoliikennettä reaaliajassa, tunnistaen ja reagoiden poikkeavuuksiin huomattavasti nopeammin kuin perinteiset menetelmät. Esimerkiksi koneoppimisen avulla voidaan kehittää malleja, jotka havaitsevat epätavallista käyttäytymistä, mahdollistaen nopean puuttumisen ennen kuin vahinko ehtii tapahtua. Lisäksi tekoäly voi ennustaa potentiaalisia uhkia analysoimalla historiallista dataa ja nykyisiä trendejä, mikä auttaa organisaatioita valmistautumaan ja vahvistamaan suojatoimiaan ennakolta.
Tekoälyä voidaan hyödyntää esimerkiksi tietojenkastelun havaitsemiseen sekä estämiseen. Muihin teknologioihin verrattuna tekoäly havaitsee tehokkaammin epäluotettavat sähköpostit tai nettisivut. Kun havainnointi suoritetaan reaaliaikaisesti, hyökkäys voidaan pysäyttää heti alkuun.
Ihmisiin vaikuttaminen¶
Tekoälyn generoima teksti, kuva, ääni tai video mahdollistavat tehokkaita social engineering -hyökkäyksiä. Toisaalta tekoälyä voi käyttää analysoimaan käyttäytymistä verkossa tai sovelluksissa, jolloin epäilyttäviä viestejä ja toimintoja voidaan pysäyttää ennen kuin ne pääsevät vaikuttamaan ihmisiin. Katso tarkemmin luvusta 5.7 tästä ja tästä. Tässä jatketaan laajempaan vaikuttamiseen, propagandaan.
Tekoälyn avulla voidaan luoda ja levittää tehokkaasti kohdennettua viestintää. Algoritmit voivat analysoida laajoja tietomassoja ja tunnistaa käyttäjäprofiileja, minkä ansiosta propagandaviestit voidaan suunnata tarkasti eri ryhmille heidän kiinnostustensa ja uskomustensa perusteella.
Tekoälyn avulla voidaan myös tuottaa vakuuttavan näköisiä väärennettyjä kuvia, videoita ja uutisartikkeleita (deep fake), mikä vaikeuttaa väärän tiedon erottamista totuudesta. Tämä kehitys korostaa tarvetta kriittiselle medialukutaidolle ja luotettavien tiedonlähteiden tunnistamiselle.
Toisaalta tekoäly tarjoaa tehokkaita työkaluja propagandan torjuntaan. Tekoälyyn perustuvat järjestelmät voivat automaattisesti analysoida ja seuloa valtavia määriä verkkosisältöä tunnistaakseen epäilyttävää tai haitallista materiaalia. Ne voivat havaita väärennettyjä kuvia, videoita ja uutisia (deep fake detection) käyttämällä algoritmeja, jotka tunnistavat epäjohdonmukaisuuksia ja merkkejä manipulaatiosta. Lisäksi tekoäly voi auttaa seuraamaan ja analysoimaan propagandakampanjoiden leviämistä reaaliajassa, mikä mahdollistaa nopean reagoinnin ja vastatoimet.
Tekoälyn väärinkäytön tutkimusta¶
Tutkimusartikkeli Generative AI Misuse: A Taxonomy of Tactics and Insights from Real-World Data (Marchal &al. 2024) esittelee kattavan luokittelun generatiivisen tekoälyn (GenAI) väärinkäytön tavoista. Se perustuu akateemiseen kirjallisuuteen ja laadulliseen analyysiin 200 mediaraportista, jotka käsittelevät GenAI-järjestelmien väärinkäyttöä ja esimerkkejä siitä ajalta tammikuu 2023 – maaliskuu 2024.
Tutkimuksessa havaittiin, että:
- Ihmisenkaltaisuuden manipulointi ja todisteiden väärentäminen ovat yleisimpiä taktiikoita väärinkäytöksissä. Useimmat näistä on toteutettu selkeällä tarkoituksella vaikuttaa yleiseen mielipiteeseen, mahdollistaa huijaukset tai petokset tai tuottaa voittoa.
- Suurin osa raportoiduista väärinkäytöksistä ei ollut teknologisesti kehittynyttä GenAI-järjestelmien käyttöä tai hyökkäystä. Sen sijaan pääasiassa havaittiin helposti saatavilla olevien GenAI-ominaisuuksien hyväksikäyttöä, joka vaatii vain vähäistä teknistä osaamista.
- GenAI-työkalujen kehittyminen, yleistyminen ja lisääntynyt saatavilla olo näyttävät tuovan mukanaan uusia ja matalamman tason väärinkäytön muotoja. Ne eivät ole avoimesti pahantahtoisia eivätkä selkeästi riko käyttöehtoja, mutta niillä on silti huolestuttavia eettisiä seurauksia. Näihin kuuluu uusien viestintämuotojen syntyminen poliittiseen vaikuttamiseen, itsensä edistämiseen ja puolustamiseen. Nämä muodot hämärtävät aitouden ja petoksen rajoja.
Luokittelu koostuu väärinkäytösten tavoitteista ja niihin sovelletuista GenAI:n käyttötavoista. Tiiviin käsityksen näistä saa artikkelin liitteissä olevista taulukoista. Artikkeli ei kuitenkaan sisällä seuraavia näkökulmia: palvelunesto, tiedonlouhinta hyökkäystapojen löytämiseksi, Troijan hevoset (AI:ssä itsessään tai sen ohjelmistoympäristössä), kriittisten järjestelmien sisäkkäiset rakenteet, joissa APT-hyökkäys voi onnistua jostain vaarattomaksi luullusta sisäosasta, kuten juuri AI:stä, käsin.
Muita lähteitä tämän luvun asioihin¶
AI & Cybersecurity –kurssi, Turun yliopisto
Saurabh R. Wagh, Dr. S. P. (2023) AI And Copyright. Tui jin ji shu. [Online] 44 (3), 3431–3439.
Okutan, A. & Eyupoglu, C. (2021) “A Review on Artificial Intelligence and Cyber Security,” in 2021 6th International Conference on Computer Science and Engineering (UBMK). [Online]. 2021 Piscataway: IEEE. pp. 304–309.
Bertino, E. et al. (2021) “AI for Security and Security for AI,” in CODASPY 2021 - Proceedings of the 11th ACM Conference on Data and Application Security and Privacy. [Online]. 2021 pp. 333–334.