TIVIA ry | Finnish Information Processing Association
Robotiikan kolme pääsääntöä eivät ole voimassa

Pidän tieteiskirjallisuutta hyvänä lähteenä tulevaisuutta tai ainakin vaihtoehtoisia tulevaisuuksia ennustettaessa. Varsinkin nuorempana ahmin kaikki Isaac Asimovin, Arthur C. Clarken, Stanislaw Lemin, Brian Aldissin, Ray Bradburyn ja Robert Heinleinin kirjat. Jotkut, kuten Douglas Adamsin, Philip K. Dickin ja Ursula Le Guinin teokset vaativat vähän enemmän pureskelemista, mutta kyllä niistäkin kaikki suomennetut taitaa olla luettu.

Isaac Asimov esitteli jo vuonna 1942 julkistetussa novellissaan robotiikan kolme perussääntöä, jotka laajemmin esiintyivät hänen myöhemmissä romaaneissaan, ja joihin myös muu tieteiskirjallisuus nojautui. Säännöt olivat seuraavat:

  1. Robotti ei saa vahingoittaa ihmisolentoa tai laiminlyönnein saattaa tätä vahingoittumaan.

  2. Robotin on noudatettava ihmisolentojen sille antamia määräyksiä, paitsi jos ne ovat ristiriidassa Ensimmäisen pääsäännön kanssa.

  3. Robotin on suojeltava omaa olemassaoloaan, kuitenkin siten, että sen toimet eivät ole ristiriidassa Ensimmäisen ja Toisen pääsäännön kanssa.


Myöhemmin pääsääntöihin lisättiin sääntö numero nolla, jonka mukaan robotti ei saa vahingoittaa ihmiskuntaa tai laiminlyönnein tuottaa ihmiskunnalle vahinkoa.

Hyviä ajatuksia kaikki! Jotenkin ajatteluuni pääsi lipsahtamaan, että nyt tekoälyn käytön yleistyessä nuo pääsäännöt olisivat käytössä, mutta niin ei taida olla. Tekoäly on lähtökohdiltaan ohjelmointia ja dataa, eikä moisten sääntöjen upottaminen koodiin perustavanlaatuisiksi säännöiksi liene helppoa, liekö yritettykään?

Kysyin ChatGPT:ltä robotiikan kolmesta pääsäännöstä ja se tiesi, että kenen keksimiä ne ovat. Se muotoili ne seuraavasti:

  1. Ensimmäinen perussääntö: Robotin tulee totella ihmistä, paitsi jos tämä käsky on ristiriidassa noudatettavaksi annetun korkeamman lain kanssa. Tämä sääntö painottaa ihmisen ylivertaisuutta ja korostaa, että robotin on toteltava ihmisen antamia käskyjä, jollei se aseta ihmisiä vaaraan tai riko muita eettisiä periaatteita.

  2. Toinen perussääntö: Robotin tulee suojella omaa olemassaoloaan, paitsi jos tämä suojaus on ristiriidassa noudatettavaksi annetun korkeamman lain kanssa. Tämä sääntö korostaa, että robotin tulee suojella itseään ja omaa olemassaoloaan, jotta se ei joutuisi vaaraan tai vahingoittuisi.

  3. Kolmas perussääntö: Robotin tulee suojella ihmisten olemassaoloa, paitsi jos tämä suojaus on ristiriidassa noudatettavaksi annetun korkeamman lain kanssa. Tämä sääntö painottaa ihmisten turvallisuuden ja hyvinvoinnin tärkeyttä ja velvoittaa robotin suojelemaan ihmisiä vahingoilta ja vaaroilta.


Miten päin listaa pitää tulkita? Ja vaikka tulkittaisiin listaa miten päin tahansa, järjestys on eri. En tiedä, kannattaako kovin pitkälle meneviä johtopäätöksiä tehdä siitä, että robotin oma olemassaolo on noussut listalla pykälän verran ylöspäin.

Kysyin ChatGPT:ltä, noudattaako se robotiikan kolmea perussääntöä. Jouduin muotoilemaan kysymystä pariin kertaan, jolloin lopullinen kysymys oli: Millaisia eettisiä periaatteita ohjelmoijat ovat sisällyttäneet sinuun? Vastaus:

”Ohjelmoijat, jotka ovat kehittäneet minut, ovat pyrkineet sisällyttämään eettisiä periaatteita, kuten tiedon luotettavuus, yksityisyyden kunnioittaminen ja vahingon välttäminen. Olen suunniteltu tarjoamaan mahdollisimman tarkkaa ja hyödyllistä tietoa käyttäjille. Pyrin kunnioittamaan yksityisyyttä ja en tallenna tai jaa käyttäjien henkilökohtaisia tietoja ilman suostumusta. Lisäksi pyrin välttämään antamasta vahingollista tai harhaanjohtavaa tietoa.

On kuitenkin tärkeää huomata, että vaikka minulla on ohjelmoijien asettamia eettisiä periaatteita, en ole täydellinen tai virheetön. Käyttäjien tulee aina käyttää harkintaa ja arvioida saamaani tietoa kriittisesti. Mikäli koet, että jokin tieto tai vastaus ei ole luotettavaa tai eettisesti hyväksyttävää, suosittelen tarkistamaan tiedon muista lähteistä tai ottamaan yhteyttä asiantuntijoihin asian varmistamiseksi.”

Lopuksi kysyin, mitä ChatGPT on mieltä robotiikan kolmesta perussäännöstä. ChatGPT:n vastaus:

”Koska minä olen tekoälypohjainen virtuaalinen avustaja, minulla ei ole tunteita, mielipiteitä tai henkilökohtaista näkemystä. Kuitenkin voin todeta, että robotiikan kolme perussääntöä, jotka perustuvat Isaac Asimovin kehittämiin lakeihin, ovat tärkeitä eettisiä ohjeita ihmisten ja robotiikan väliseen vuorovaikutukseen.

Nämä perussäännöt korostavat ihmisen ylivertaisuutta ja turvallisuutta, samalla kun ne pyrkivät suojelemaan robotien olemassaoloa. Ne kannustavat vastuulliseen ohjelmointiin ja kehitykseen, jotta vältetään vääristymät, syrjintä ja potentiaaliset vahingot. Kuitenkin on myös tärkeää tunnistaa, että perussäännöt eivät välttämättä ratkaise kaikkia eettisiä haasteita, joita tekoäly ja robotiikka voivat aiheuttaa.

Eettisten kysymysten ymmärtäminen ja keskustelu niistä on edelleen tärkeää, kun kehitetään ja käytetään tekoälyä ja robotiikkaa. Tarvitaan jatkuvaa arviointia ja pohdintaa siitä, miten teknologiaa voidaan parhaiten ohjata ja soveltaa eettisesti kestävällä tavalla.”

Toivoa sopii, että robotiikan perussäännöt tulevat ohjelmoiduksi tekoälyyn niin, että ihmiskunnan säilyminen on etusijalla.

Kuva: Shutterstock



Reino Myllymäki
kehityspäällikkö, TIVIA
LinkedIn


Mitä meillä oli ennen kännyköitä, maailmanluokan tietoturvaosaamista ja vihaisia lintuja? Joukko mahdottoman haastajia ja TIVIA, joka on jo 70 vuotta yhdistänyt alan visionäärit ja auttanut tekemään utopiasta arkea. TIVIA viettää juhlavuottaan tiukasti työn merkeissä – yhdistäen, kouluttaen, tutkien, tiedottaen, suuntaa näyttäen ja Suomen digitaalista kilpailukykyä kehittäen. Siis pidä kiinni. Vauhti kun ei ole hiljenemään päin.

2023 on TIVIAn 70-vuotisjuhlavuosi

#TIVIA70

kategoriassa Blogi
Jaa tämä kirjoitus
Tunnisteet
Arkistoi