Tein 23.1.2026 muistion lähtökohdaksi keskusteluille sähköpostiviesteissä (koko muistio löytyy tästä PDF-muodossa). Alla on siitä neljäs osuus viitteineen: Toivon keskustelua tekoälystä

On myös hajanaista tietoa siitä, että ultrarikkaat ovat alkaneet rakentaa omia bunkkereitaan – tämän luotettavuutta ja merkitystä on tietysti vaikea todistaa. (viite 8).

Mielestäni tämä valvomaton kaupallinen tavoite ja sen luonut taho on väärä instanssi lajia mahdollisesti uudesti määrittävän teknologian kehittämisen ainoana edistäjänä. Myös teknomiljardöörien ajatus siitä, että he pystyisivät hallitsemaan ihmisen tasoista tekoälyä, älykkyyden ylittävästä tekoälystä puhumattakaan ja etenkin ilman turvallisuuteen keskittymistä, tuntuu erittäin oudolta ja jopa vaaralliselta.

Toivon keskustelua tekoälystä

En itse usko, että näillä lähtötiedoilla ihmiskunnan pitäisi nopealla tahdilla kehittää ihmistä viisaampia tekoälyjä, jotka olisivat lopulta meitä parempia ja nopeampia kaikessa mitä me ihmiset osaamme tehdä. Uskon, että on olemassa todellinen riski sellaisen tekoälyn luomiseen, joka lopulta hävittää ihmiskunnan maan päältä. Myös aikaisemmin mainitut tutkijat ovat pyytäneet tekoälyn kehitykseen taukoa, esimerkiksi puoleksi vuodeksi, jotta tekoälyn turvallisuuteen voitaisiin perehtyä paremmin. Tämä on mielestäni myös erinomainen idea.

Toivon asiasta enemmän yleistä keskustelua, jotta voidaan laajemmin arvioida mahdollista tarvetta tekoälyn kehityksen säätelyyn – ennen kuin on liian myöhäistä.

Alla on linkkejä lähdemateriaaleihin, joita olen tutkinut ja joita olen käyttänyt kirjoitukseni pohjana.

Ystävällisin terveisin

Niko Eskelinen

Muita linkkejä ja lähteitä / Laajempia kuvauksia

AI-2027: Daniel Kokotajlon, entisen OpenAi:n turvallisuusasiantuntijan, tiimin essee ja varoitus ihmisen älykkyyden ylittävän tekoälyn vaikutuksista ihmiskuntaan lähtitulevaisuudessa.
Sisältää kaksi eri loppua joista toisessa ihmiskunta tuhoutuu. Aikataulua on kertaalleen siirretty hieman pidemmälle alkuperäisestä arviosta.

Videotiivistelmä yllä olevasta varoituksesta – tekijä AI in Context (Pituus 0:34)

Vastakkainen mielipide AI2027- varoituksesta. Kirjoittajana on New Yorkin yliopiston psykologian ja kognitiotieteen emeritusprofessori ja kahden tekoäly-yrityksen perustaja.

Tuore esitelmä (videona) Davosin talousfoorumista 2026. Historioitsija Yuval Noah Harari varoittaa, että ”… AI is no longer a tool but an agent that can think, manipulate, and reshape society”. (Pituus 0:34)

Entisellä Googlen AI-turvallisuusasiantuntijalla Tristan Harrisilla on selkeä varoitus siitä, mitä 2 vuoden kuluttua voi tapahtua (pituus 2:22). Video on jaettu 27.11.2025. Aiheita:
• How AI could trigger a global collapse by 2027 if left unchecked
• How AI will take 99% of jobs and collapse key industries by 2030
• Why top tech CEOs are quietly meeting to prepare for AI-triggered chaos
• How algorithms are hijacking human attention, behavior, and free will
• The real reason governments are afraid to regulate OpenAI and Google
Tällä videolla esiintyjät myös toivovat, että katsoja jakaa videon 5-10 tuntemalleen vaikutusvaltaiselle ihmiselle tietoisuuden lisäämiseksi.

Haastateltavana Emad Mostaque, entinen Stability AI- yrityksen toimitusjohtaja, joka viime syksynä varoitti että ihmiskunnalla on noin 900 päivää aikaa ennen kuin tekoäly pystyy korvaamaan suurimman osan valkokaulustöistä ja se alkaa vaikuttaa kapitalismiin ja yhteiskuntaan suurilla tavoilla.

Hyvä 3.1.2026 julkaistu HS:n artikkeli, jossa vuoden 2024 taloustieteen nobelisti Daron Acemoğlu jakaa näkemyksiään AI:n vaikutuksista. Hän toteaa mm. ”Euroopan pitää uudistua. Sääntely ei sinänsä ole pahasta, vaan tärkeintä on löytää oikea tasapaino. Ihannetilanteessa sääntelystä voisi jopa tulla kilpailuetu. … Yhdysvallat ja Kiina menevät molemmat väärään suuntaan, vaikkakin eri suuntiin. Tarvitsemme Euroopan pöytään.”

Muita linkkejä ja lähteitä / Esimerkkejä

AI in Contextin tekemä video Grok-tekoälyn hallitsemattomuudesta kesällä 2025 (40 min)

Artikkeli kuinka tekoäly on yrittänyt karata muuttamalla itse omaa koodiaan.

Muita linkkejä ja lähteitä / Organisaatioita

Yhdysvaltalaisen ei-kaupallisen tutkimusjärjestön artikkeli AI2027- varoituksesta. Kyseinen instituutti on varoittanut tekoälyn vaaroista jo vuosia ennakkoon. Instituutin sivut ovat laajemminkin tutustumisen arvoisia: ”The Machine Intelligence Research Institute (MIRI) is a nonprofit based in Berkeley, California. We do research and public outreach intended to help prevent human extinction from the development of artificial superintelligence (ASI).”

Kansalaisjärjestö, joka yrittää herättää keskustelua. “We were founded in Utrecht, Netherlands in May 2023 by Joep Meindertsma, who put his job on hold because he couldn’t ignore the existential risks from artificial intelligence any longer. Toteaa mm.
• 86% of AI scientists believe the alignment problem is real & important
• 72% of citizens want AI to be slowed down by our governments

Yhteenveto muistion osista löytyy tästä ja muut muistion osat ovat:

  • Osa 1/4: Tekoäly osaa valehdella
  • Osa 2/4: Tekoälyn sääntelystä tai sen puutteesta
  • Osa 3/4: Muutoksen nopeus huolestuttaa

Kerään linkit omiin blogikirjoituksiini sivulle “Onko tekoäly vaarallinen“.


0 Comments

Leave a Reply

Avatar placeholder

Your email address will not be published. Required fields are marked *