Löydöksiäni pähkinänkuoressa

Maallikon tutkimusmatkani tekoälyn maailmaan on antanut jo jonkinlaista ajatusta siitä, mitä tekoäly on. Tässä on tämän hetken näkemys (jota on tarkoitus päivittää matkan edetessä):

Tyypillinen laajaan kielimalliin perustuva tekoälyjärjestelmä tuottaa tekstiä laskemalla todennäköisiä lauseyhdistelmiä, jotka sopivat sille esitettyihin kysymyksiin tai ehdotuksiin. Tätä varten sille on annettu alkuopetusmateriaalina massiivinen määrä tekstiä eri lähteistä, ja tekoäly voi oppia lisää yhteydenpidostaan käyttäjien kanssa.

Koska koulutusmateriaalia ja lauseiden muodostusta ei pystytä tarkasti kontrolloimaan, voi tekoäly tuottaa hyvinkin kyseenalaista tekstiä (tai kuvia, tms). Tästä on näillä sivuilla useita esimerkkejä. Tuotosten osittaisen satunnaisuuden ja erheisyyden vuoksi tekoälyn tuloksia on haastavaa käyttää esimerkiksi liiketoiminnassa nyt, mutta oletettavasti kehitys parantaa tuloksia ja käyttö laajenee. On kuitenkin vaikeaa nähdä, että mitään vastuullista suoritusta voitaisiin tehdä tekoälyn ohjaamana, koska emme voi olla varmoja tuloksesta.

Mitä tekoäly on > Olisi hyvä nähdä, että tulos on tuotettu tekoälyllä

Entä jatko? Ensi askeleena toivon EU:ssa nopeasti lainsäädäntöä siihen, että tekoälyllä tuotettu materiaali on aina tunnistettavissa. Tällöin voin ainakin itse päättää, haluanko hyödyntää sitä.

Tällainen läpinäkyvyys auttaisi myös viranomaisia rajoittamaan tekoälyn käyttöä sellaisista sovelluskohteista, joissa tarvitaan ehdottoman varmaa toimintaa.

Jos haluat nopean ja arvovaltaisen yhteenvedon tekoälystä ja sen tulevaisuuden näkymistä, on etusivulla youtube-videolinkki Davosin maailmantalouden seminaarissa pidettyyn 20-minuutin esitelmään. Siinä kuvataan yhteiskuntamme mahdollisia muutoksia, kun yhä useammissa toiminnoissa hyödynnetään tekoälyä. Ja yhteenvetoa tekoälyn mahdollisista uhkista löydät rinnakkaissivulta “Onko tekoäly vaarallinen“.

Mitä halusin löytää matkallani

Kuten tarinasivultamme selviää, halusin ymmärtää mitä tekoäly on ainakin karkealla tasolla. Jos ymmärtäisin sen toimintaperiaatteita voisin ehkä paremmin arvioida niitä riskejä, joita on tekoälyn käytölle on esitetty. Uhkakuvat esittävät, että tekoälyä käytetään koodaamaan siitä seuraava sukupolvi, joka voisi olla muodostua itsenäisistä tekoälytoimijoista, ns. agenteista. Tällainen agentti voisi pyrkiä optimoimaan sille annettua tehtävää – ja jos tämän tehtävän on antanut edellinen tekoälysukupolvi, tavoite ei välttämättä olisi ihmisen edun mukainen. Haluaisin löytää mahdollisimman luotettavaa tietoa siitä, ollaanko tähän suuntaan menossa.

EU on antanut Tekoälysäädöksen 2024. Yritän myös hahmottaa tekoälyn käyttöä koskevan lainsäädännön nykytilaa Euroopassa. Itse asiassa lainsäädäntö Yhdysvalloissa ja Kiinassa on globaalisti vielä tärkeämpää, mutta nykyisessä maailman tilanteessa jo Euroopan suuntaviivojenkin löytäminen lienee riittävän työlästä.

Mitä olen löytänyt

Varsinaiset löydökset olen pitkälti kirjannut blogin postauksiin, joihin on linkit alempana. Seuraavassa on näistä nostettu avainkohtia:

  • Merkittäviä laajoihin kielimalleihin (LLM) perustuvia järjestelmiä luo maailmassa yhden käden sormilla laskettava määrä yrityksiä.
  • Tällainen järjestelmä luo vastauksensa ja tekstinsä sen mukaisesti, mitä sen valtava opetusmateriaali tuossa tilanteessa useimmiten esittäisi, tai ehkä paremminkin tekoäly luo uutta yhdistelemällä opetusmateriaalin sisältöä. Materiaalin määrä on valtava, se ylittää moninkertaisesti normaalin ihmisen käsityskyvyn. Kun lisäksi tekoäly pystyy aktiivisesti hyödyntämään materiaalin koko määrän, ylittää vastausten osaamistaso (ja muotoilukin) jo usein (tai useimmiten?) ihmisen kyvyt.
  • Eikä osaamisen kasvu lopu tuohon: jos alkumateriaalin antamisen jälkeen järjestelmän annetaan oppia myös esimerkiksi chat-yhteyksistään käyttäjiensä kanssa (tai netin teksteistä ilman kontrollia), saa tekoäly myös hyvin kyseenalaista aineistoa, ja pystyy tuottamaan näin ollen myös epäeettistä tekstiä. Lisäksi osaava käyttäjä pystyy myös tietoisesti muuttamaan tekoälyn painotuksia ja näin vastineita kysymyksiin.
  • Operattorit/kehittäjät voivat ohjata tekoälyä ns. prompteilla, mutta tällöinkin käsittääkseni vain muutetaan painotuksia – yksikäsitteisiä kieltoja tai käskyjä kieltoja ei tekoälylle ilmeisesti pysty antamaan.
  • Meille peruskäyttäjille tekoäly on tarjolla ChatGPT-tyyppisenä – esimerkiksi Microsoftin Copilot perustuu OpenAI-yrityksen o3-kielimalliin.
  • Mutta yrityksille tilanne on toinen, ne voivat ostaa käyttöönsä ns. API-versiot, jotka voidaan liittää yrityksen omaan järjestelmään ja tällöin yrityksen tarjoama tuote tai palvelu voi hyödyntää tekoälyn vastauksia käyttäjille osana tuotettaan tai palveluaan. Lukemani tieto tämän osalta on hieman ristiriitaista: osa teksteistä sanoo, että tätä materiaali on rajattua ja se on kontrolloidusti tuotettu, mutta osa toteaa, että pohjana on sama kielimalli – esim. OpenAI o3.

Mitä pitäisi tehdä

Kun asiantuntijoidenkin esittämiä uhkakuvia käy läpi, voi tulla avuton olo yksittäisenä ihmisenä historian virrassa. Lisäksi noiden skenaarioden mukaan meillä on jo kiire tehdä jotain kehitykselle.

Aina on kuitenkin toivoa. Ja tämä oli muotoiltu mielestäni upeasti Suomen Kuvalehden numerossa 3/2026, jossa haasteteltiin ympäristöasioiden kanssa työskentelevää muutosjohtaja Mari Pantsaria. Hän aloittaa usein esityksensä luontokadosta sanoin ”Olen pahoillani, mutta minulla on huonoja uutisia”. Tilannekuvan antamisen jälkeen hän esittää hyvät uutiset: meillä on kaikkiin näihin ongelmiin ratkaisut. Ne vain vaativat aktiivista ja nopeaa toimintaa: ”On hölmöä puhua toivosta, jos ei puhu toiminnasta. Vain teot luovat toivoa.”

Mitä tekoäly on > "Meillä on kaikkiin näihin ongelmiin ratkaisu"

Nämä sivut ja yritys virittää keskustelua ovat meidän tekomme toivon luomiseksi. Uskon siihen, että tekoälyä voidaan jatkossakin menestyksellisesti ja turvallisestikin käyttää kohteisiin, joissa siitä on merkittävää hyötyä.

Vastuullisen käytön ohjeita on Suomessakin onneksi jo olemassa. Ehkä yksittäisen kansalaisen kannalta olisi hyvä ymmärtää, milloin on tekemisissä tekoälyn kanssa. Toivoisin ainakin itse tietäväni, milloin käyttämäni materiaali on tekoälyn luomaa ja milloin se on ihmisen tekoa. Ymmärtääkseni Kiinassa on annettu maaliskuussa 2025 asetus, joka vaatii merkitsemään tekoälyllä tuotetun materiaalin. EU:ssa on työryhmä laatimassa vastaavaa menettelyä siten, että tulokset julkaistaan kesällä 2026.

Perusteita

Yllä olevat näkemykset perustuvat osin blogiin kirjoittamiini laajempiin teksteihin:

  • 28.01.2026 – Matkakertomuksen osa 1 – Lähtöpiste: kokemukseni tekoälystä tähän mennessä.
  • 29.01.2026 – Matkakertomuksen osa 2 – Large Language Model ja sen kouluttaminen
  • 02.02.2026 – Matkakertomuksen osa 3 – Itseäni motivoidakseni palasin ihan alkuun ja kysymykseen Miksi tätä riskien läpikäyntiä teen?
  • 09.02.2026 – Matkakertomuksen osa 4 – Mikä on OpenClaw, joka teki oman Facebookin? Openclaw on henkilökohtainen tekoälyavustaja, joka julkistettiin marraskuussa 2025. Tammikuussa ne perustivat oman Moltbookin.
  • 10.02.2026 – Matkakertomuksen osa 5 – Tekoälyn vastuullinen hyödyntäminen: suomi.fi -sivustolla julkistettu osio erinomaisen kattava. Se käy läpi mm. lainsäädäntömme tilaa sekä sitä, mitä yritysten tulee huomioida hyödyntäessään tekoälyä.
  • 11.02.2026 – Matkakertomuksen osa 6 – Romahduttaako tekoäly SaaS-hinnoittelun? Muuttuvatko hinnoittelumallit, kun tokenit maksavat. Olen kirjannut otteita HS Vision 38-minuuttisesta hyvästä keskustelusta, jossa Reaktorin tekoälyjohtaja Marko Aalto on haasteteltavana.
  • 13.02.2026 – Matkakertomuksen osa 7 – Rauhoittuuko tekoälyn kehitysvauhti – koodausagenttien käyttäjä arvioi uusia versioita GPT-5.3-Codex ja Claude Opus 4.6 ja toteaa muutokset pieniksi

Toivottavasti löydät näiltä sivuilta hyödyllistä tietoa ja ehkä jaat myös omia näkemyksiäsi kommentteihin.

Terveisin,
Pertti