Tein 23.1.2026 muistion lähtökohdaksi keskusteluille sähköpostiviesteissä (koko muistio löytyy tästä PDF-muodossa). Alla on siitä toinen osuus viitteineen: Tekoälyn sääntelystä tai sen puutteesta.
Tekoälyn turvallisuuden kehitykseen budjetoitu raha on globaalisti n. 40-60 miljoonaa euroa vuodessa, kun muuten tekoälyn vuosibudjetti liikkuu useissa miljardeissa. Tämäkin mielestäni kertoo turvallisuuden valtavasta laiminlyönnistä ja jopa ylimielisyydestä aihetta kohtaan. Ymmärtääkseni isoissa tekoäly-yrityksissä ei huomioida moraalin tai etiikan sisällyttämistä nykyisten tekoälymallien koulutuksessa alusta saakka vaan ne jätetään tarkoituksella pois, jonka jälkeen ne liitetään viimeiseen koulutuksen vaiheeseen. Asiantuntijoiden mukaan tämä ei ole riittävä tapa taata tekoälyn etiikkaa, moraalia ja kuuliaisuutta ihmisiä kohtaan (viite 4).
Tekoälyn kehityksen sääntely on maailmanlaajuisesti lähes olematonta, vaikka alan yrityksien työntekijät ovat itse tätä epätoivoisesti pyytäneet. EU rakensi ensimmäisenä maailmassa säätelyä, mutta tämän täytäntöönpanoa on kevennetty ja viivästetty (viite 5) Kiinan ja Yhdysvaltojen karattua kahdenväliseen tekoälykisaan, jossa tavoitteena voi olla yleisen tekoälyn, Artificial General Inteligence, kehittäminen mahdollisimman nopeasti.

Yhteenveto muistion osista löytyy tästä ja muut muistion osat ovat:
- Osa 1/4: Tekoäly osaa valehdella
- Osa 3/4: Muutoksen nopeus huolestuttaa
- Osa 4/4: Toivon keskustelua tekoälystä
Kerään linkit omiin blogikirjoituksiini sivulle “Onko tekoäly vaarallinen“.
0 Comments