Sustis-kirje #3/2026
TEEMA: Eettinen AI
TERMI: Enshittification
MENETELMÄ: REAL-kortit algoritmiseen suunnitteluun
TEEMA: Onko eettinen AI myytti vai fakta?
Ovatko seuraavat väittämät mielestäsi myyttejä vai faktoja?
1. AI on neutraali työkalu.
2. AI on energiasyöppö.
3. AI tukee kestävää kasvua.
Pidä vastauksesi mielessä, palaamme niihin pian.
Eettisen AI:n määritelmä
Määritelmia on monia. Minulle eettinen AI on konkreettisia valintoja siitä
- mitä mitataan, eli optimoidaanko vain tehokkuutta?
- keneltä kysytään, eli osallistetaanko niitä, joita teknologia koskettaa?
- milloin tekoäly ei ole oikea ratkaisu, eli tunnistammeko tilanteet, joissa tekoäly syrjii, lisää ympäristökuormitusta tai sisältää muita riskejä?
Keväällä 2026 AI täyttää uutiset ja somevirran. Se tehostaa, tehostaa, tehostaa, poistaa vähintään junioritason tekijät kuviosta ja toimi irtisanomisten selityksenä. Samalla näyttö AI:n arvosta ja tuottavuuden kasvusta on ohutta.
Deloitten mukaan organisaatiot investoivat AI:hin ennätystahtia ja käyttöoikeudet ovat laajentuneet 50 % vuoden aikana, mutta vain 25 %yrityksistä raportoi AI:n tuottavan transformatiivista arvoa. Suurin osa jää pintatasolle — pieniä tehokkuusparannuksia, mutta ei todellista liiketoiminnan uudistumista. Samalla 84 % yrityksistä ei ole vielä muotoillut työnkuvia tai prosesseja uudelleen AI:n ympärille, mikä selittää, miksi tuottavuushyödyt jäävät toteutumatta. Tämä johtaa “untapped edge” ‑tilaan, jolla tarkoitetaan sitä että potentiaali iso, mutta todellista vaikutusta on vähäisesti. (Lue lisää: State of AI in the Enterprise, Deloitte, 2026.)
McKinsey nostaa esiin, että AI:n nopea siirtyminen kohti agenttien aikakautta (eli AI tekee asioita, ei vain tuota tekstiä) kasvattaa riskejä nopeammin kuin strategia-, governance‑ ja riskinhallintarakenteet päivittyvät vastaamaan uutta tilannetta. Tämä johtaa siihen, että ilman luottamusta tukevaa vastuullista AI‑kehystä AI:n arvo ei skaalaudu. (Lue lisää: State of AI Trust in 2026: Shifting to the Agentic Era, McKinsey, 2026.)
Jatketaan myyttien ja faktojen parissa.
1. AI on neutraali työkalu – myytti
AI heijastaa koulutusdatan vinoumia, kulttuurisia oletuksia, kehittäjien näkökulmia ja sen, keitä ei ole kuultu suunnittelupöydässä. Käytännössä tämä näkyy kaventuneen “oletuskäyttäjän” kautta, jollon käyttöliittymät priorisoivat äänettömästi tiettyjä ryhmiä. Esimerkiksi kasvontunnistusjärjestelmät ovat toimineet heikommin tummemmilla ihonsävyillä, lääketieteelliset mallit on koulutettu pääosin länsimaisella datalla, ja rekrytointialgoritmit ovat suosineet historiallisesti enemmistöä edustavia hakijaprofiileja.
SyRI oli Hollannin valtion käyttämä sosiaaliturvan riskiprofilointijärjestelmä, joka yhdisteli viranomaisdataa ja kohdisti tarkastuksia erityisesti matalatuloisiin ja maahanmuuttajataustaisiin alueisiin. Haagissa sijaitseva tuomioistuin kielsi järjestelmän käytön vuonna 2020, koska se rikkoi oikeutta yksityisyyteen ja altisti sosioekonomiselle syrjinnälle.
Eriarvoistaminen syntyy usein siitä, ettei esitetä oikeita kysymyksiä:
- Kuka puuttuu, eli kenen ääni ei näy datassa tai testauksessa?
- Mistä data on peräisin ja mitä se ei sisällä?
- Miten eri käyttäjäryhmät saadaan mukaan jo konseptivaiheessa?
- Kuka hyötyy tästä järjestelmästä ja kenen kustannuksella?
2. AI on energiasyöppö – fakta
Jokainen AI‑generointi käynnistää datakeskuksessa prosessin, joka kuluttaa sähköä, vettä ja laitteistoa. Yksittäinen AI‑haku käyttää jopa kymmenkertaisesti enemmän energiaa kuin perinteinen Google‑haku, ja usein tämä hiilijalanjälki pysyy käyttäjälle näkymättömänä. Myös palveluiden suunnittelu ja kehittäminen kuluttavat energiaa. Kielimallit pitää kouluttaa ja kehitystyön jatkuva CI/CD, testaus ja inferenssipalvelimet lisäävät kulutusta koko elinkaaren ajan.
Seuraavat luvut ovat arvioita, mutta suunta on selvä. AI:n ympäristöjalanjälki kasvaa nopeasti.
Globaalisti datakeskusten sähkönkulutukseno on arvioitu yli kaksinkertaistuvan vuoteen 2030 mennessä ja voi nousta 945 TWh tasolle (≈ 3 % maailman sähköstä). AI:n vastaa arviolta yli 20 % tästä kasvusta. Vuonna 2030 sähköntuotannosta arviolta 60 % tulee fossiilisista (hiili, kaasu, öljy) ja 40 % vähähiilisistä lähteistä (uusiutuvat + ydinvoima).
AI:n ympäristöjalanjälki ei synny pelkästään energiankulutuksesta. Datakeskukset tarvitsevat vettä jäähdytykseen, mineraaleja ja metalleja laitteistojen valmistukseen sekä tuottavat nopeasti kasvavan määrän elektroniikkajätettälyhyen laite-elinkaaren vuoksi. Toisin sanoen tekoäly ei ole vain “pilvessä” tapahtuvaa digitaalista toimintaa, vaan siihen kytkeytyy hyvin konkreettinen fyysinen jalanjälki.
Suomessa sijaitseva Googlen Haminan datakeskus käyttää jäähdytykseen merivettä ja on yksi maan suurimmista yksittäisistä datainfrastruktuurin energiankuluttajista. Sen aiheuttama hukkalämpö on niin suurta, että Google ja Haminan Energia suuntaavat lämpöä kaukolämpöverkkoon kattamaan jopa 80 % kaupungin lämmöntarpeesta.
Suunnittelijat eivät aina näe, mikä toiminto on energiasyöppö, mutta voivat kysyä:
- Tarvitseeko tämä toiminto oikeasti AI:ta, vai voisiko parempi palvelumuotoilu ratkaista ongelman?
- Voisiko kehitystiimi arvioida eri mallien energiankulutusta ja valita pienen, rajatun tai tehtäväkohtaisen mallin?
- Miten ympäristövaikutukset otetaan osaksi kriteereitä alusta asti? Esim. onko käyttöliittymä toteutettu mahdollisimman kevyenä, jotta palvelun jatkuva energiankulutus on mahdollisimman pientä?
- Ohjaammeko käyttäjää tekemään turhia generointeja?
3. AI tukee kestävää kasvua – toisinaan fakta, toisinaan myytti
AI voi aidosti vähentää ympäristökuormaa. Esimerkiksi energiaverkkojen optimointi, materiaalihukan vähentäminen teollisuudessa ja logistiikan tehostaminen ovat tuoneet uutta arvoa. AI voi siis myös kasvattaa arvoa ilman resurssien lineaarista kasvua. Mutta Jevonsin paradoksi vaanii tässäkin, sillä mitä helpompi AI:ta on käyttää, sitä enemmän sitä käytetään. Tehokkuushyödyt voivat kumoutua, jos kulutus kasvaa samassa tahdissa. Silti he voivat vaikuttaa paljon valinnoilla, joita tehdään palvelun varhaisissa vaiheissa.
Fingrid hyödyntää uusia koneoppimismalleja parantaakseen sähkönkulutuksen ja -tuotannon ennustetarkkuutta, mikä vähentää varavoiman tarvetta ja tasapainottaa kantaverkkoa. Uudet AI-mallit ovat parantaneet ennustetarkkuutta jopa 20 % ja vähentäneet kriittisten virheiden määrää 60 %, mikä suoraan pienentää energiankulutusta ja päästöjä.
Kysymyksiä, jotka tähtäävät siihen että AI voisi tukea kestävää kasvua:
- Miten AI vähentää jonkin olemassa olevan resurssin kulutusta (energia, aika, materiaalit) verrattuna nykytilaan?
- Miten varmistamme, että mallin käytön määrä ei kasva nopeammin kuin sen tuottama hyöty?
- Miten seuraamme palvelun elinkaaren aikana, lisääkö ratkaisu kokonaiskulutusta vai vähentääkö se sitä?
ILMIÖ: Enshittification

Termin on luonut Cory Doctorow, digitaalisten oikeuksien puolestapuhuja, aktivisti ja toimittaja joka on kirjoittanut kirjan otsikolla Enshittification: Why Everything Suddenly Got Worse and What to Do About It.
Doctorow’n mukaan enshittification etenee vaiheittain:
- Houkuttele ja koukuta käyttäjät
Alustan alkuvaiheessa tavoitteena on saada mahdollisimman paljon käyttäjiä sisään, joten palvelu tehdään halvaksi, helpoksi ja miellyttäväksi. Käyttö on usein ilmaista tai lähes ilmaista, ominaisuuksia on runsaasti, mainoksia ei ole ja suunnittelijoiden fokus suunnataan käyttökokemukseen. - Käyttäjien muuttaminen hyödykkeeksi
Kun käyttäjämäärä kasvaa, alustaa aletaan optimoimaan yritysasiakkaille. Mainokset, maksettu näkyvyys ja algoritmit jotka suosivat sitä joka maksaa astuvan kuvaan. Samalla käyttäjät eivät ole enää asiakkaita vaan tuote, jota myydään mainostajille. Käyttökokemus heikkenee, koska optimointi palvelee lähinnä yritysten etua. - Kaiken optimointi omistajien eduksi
Kun vahva markkina-asema on saavutettu ja käyttäjät koukutettu siirrytään omistajien ja sijoittajien tuoton maksimointiin. Tämä näkyy hinnankorotuksina, maksullisina tasoina, API‑rajoituksina sekä käyttäjien ja yritysten “lock‑in‑tilanteena”. Nyt alusta on täysin “enshittifioitunut”, käyttökokemus rapautuu, asiakkaat ja yritykset turhautuvat, mutta omistajien tuotto maksimoituu… kunnes käyttäjät lopulta siirtyvät muualle ja sykli alkaa uudestaan.
Sama logiikka tuntuu olevan tekoäly-yritysten strategian taustalla.
ChatGPT tarjosi ilmaisen pääsyn ja loi massiivisen käyttäjäkunnan. OpenAI myy nyt tätä käyttäjäkuntaa sijoittajille ja yrityksille, samalla ilmaisen version rajoitukset ovat tiukentuneet ja maksumuurit lisääntyneet.
Google-haku näyttää tekoälyvastaukset hakutulosten yläpuolella, vähentäen näin klikkauksia alkuperäisille sivuille, jotka menettävät liikennettä ja samalla Google kerää heidän sisältönsä mallin koulutukseen. Käyttäjät saavat vastaukset nopeammin, mutta ne eivät ole luotettavia.
VIDEO: Mitä on Enshittification? The Ensh*ttificator, Forbrukerrådet, 2026.
Enshittification ei kuitenkaan ole väistämätöntä. Norjalainen kuluttajajärjestö Forbrukerrådet julkaisi helmikuussa 2026 raportin Breaking Free: Pathways to a Fair Technological Future, jossa esitetään konkreettisia ratkaisuja enshittificationin torjumiseksi:
- Sääntelyssä EU:n tuleva Digital Fairness Act pyrkii kitkemään dark patterneja, addiktoivaa designia ja epäreilua personointia, jotka rapauttavat käyttäjäkokemusta ja kuluttajan valinnanvapautta.
- Markkinoilla muutos syntyy vahvistamalla kilpailua ja lisäämällä alustojen välistä pakollista yhteentoimivuutta, mikä tekee käyttäjien lukitsemisesta vähemmän kannattavaa ja vähentää yritysten halua heikentää tuotteitaan jälkikäteen.
- Suunnittelijat voivat vastustaa enshittificationia konkreettisilla valinnoilla: rakentamalla kitkaa, tekemällä kustannukset näkyviksi ja kieltäytymällä suunnittelemasta riippuvuutta.

Helsingin yliopiston Reimagine ADM -tutkimushanke on julkaissut konkreettisen työkalun nimeltä REAL-kortit (REimagining ALgorithmic futures). Kortit on suunniteltu herättämään kriittistä ja avointa keskustelua etiikasta ja arvoista algoritmisissa järjestelmissä. Korttien ydinajatus on yksinkertainen: parempia teknologioita ei synny ilman parempia kysymyksiä.
Jokainen kortti sisältää kysymyksen tai väittämän, johon ryhmä peilaa kehitettävää järjestelmää. Ne tuovat esiin piilossa olevia oletuksia Esimerkkejä tyypillisistä pohdinnoista:
- Kuka hyötyy järjestelmästä ja kuka jää ulkopuolelle?
- Mitä tapahtuu, jos järjestelmä yleistyy paljon laajemmalle kuin alun perin suunniteltiin?
- Mitä dataa puuttuu – ja miten se vaikuttaa käyttäjiin?
- Mitä vaihtoehtoisia tulevaisuuksia pitäisi pohtia ennen päätöksiä?
Tutustu tarkemmin ja lataa kortit täältä.

