Hommaforum Testi

HOMMAN KESKUSTELU => Tupa => Topic started by: Tomatoface on 20.04.2018, 23:03:32

Title: Rasistinen tekoäly
Post by: Tomatoface on 20.04.2018, 23:03:32
Kaikkea on tullut vastaan mutta tämä menee taas tapahtumahorisontin yli niin että rytisee..

Iltasanomissa oli sinänsä ihan neutraali kirjoitus tekoälystä ja sen oppimisesta. Mukaan oli jälleen kerran ympätty mukaan jotakin ihan uskomatonta:

"Tekoälysovelluksissa on usein sisään rakennettuja ongelmia. Data-analytiikkaa ja profilointia tekevät sovellukset perustuvat ihmisten keräämään tai itse antamaan tietoon. Jos data sisältää ihmisten siihen syöttämiä ennakkoluuloja tai asenteita, tuottaa kone vääristynyttä tietoa päätöksenteon pohjaksi. Hyvä esimerkki tästä on Yhdysvaltain Pittsburghin alueen laaja tekoälyhanke, jossa kartoitettiin lasten riskiä joutua perheväkivallan ja hyväksikäytön uhreiksi. Kone löysi paljon useammin riskejä köyhästä mustasta väestöstä kuin valkoisesta, vaikka rodulla ja köyhyydellä ei ole mitään tekemistä huonon vanhemmuuden kanssa. Ennakkoluulot oli syötetty sisälle analysoitavaan tietoon."

Itselleni nämä ovat aika tuttuja aiheita ja tiedän että datan validointi on tärkeä osa tiedon suodattamisessa. Jos data perustuu statistiikkaan ja tarpeeksi suuriin otoksiin ihmisryhmistä niin virhemarginaali ennusteissa on pieni (kuten mm. Espoon terveystutkimus osoitti):

"Raportin visiointi ei ole tyhjää hypetystä. Lauantain painetun IS:n Plus-osiossa kerrotaan Espoon kaupungin ja Tieto oyj:n pilottihankkeesta, jossa tekoäly seuloi puolen miljoonan espoolaisen terveys- ja sosiaalipalvelujen käyttöä. Eläketurvakeskus kertoi juuri äsken tekoälykokeilustaan, jossa itseoppiva algoritmi ennusti 78 prosentin tarkkuudella asiakkaan joutumisen työkyvyttömyyseläkkeelle. Monet isot vakuutusyhtiöt puolestaan antavat jo koneen ratkaista selkeät vahingonkorvaustapaukset. Maailman pörsseissä arvopaperikauppa pyörii suurelta osin tekoälyn varassa."

En olekaan ikinä edes osannut kuvitella että tietojärjestelmiin syötetty data on rasistista. Varmaan tekoälyn kehitys torpataan Amenstyn avulla tulevina vuosina..

Linkki artikkeliin:

https://www.is.fi/paakirjoitus/art-2000005650179.html
Title: Vs: Rasistinen tekoäly
Post by: newspeak on 20.04.2018, 23:19:09
Ennen pelättiin tekoälyn aloittavan ydinsodan. Nyt pelätään sen olevan rasisti. Jotain kehitystä kai tämäkin.
Title: Vs: Rasistinen tekoäly
Post by: Fiftari on 20.04.2018, 23:33:59
Jos nyt oikein ymmärrän niin tekoäly koodataan olemaan looginen ja jossain määrin oppimaan (ainakin joissain tapauksissa). No loogisuus pohjautuu tilastoihin ja käyttäytymismalleihin jolloin on vain loogista että tekoäly on "rasisti". Logiikka ja suvakisnismi(onko toi edes oikea sana) ei kulje käsi kädessä. Jos tekoälystä haluaa tehdä kukkahatun niin silloin se ei ole kyllä älykäs.
Title: Vs: Rasistinen tekoäly
Post by: Tomatoface on 20.04.2018, 23:37:56
Quote from: Fiftari on 20.04.2018, 23:33:59
Jos nyt oikein ymmärrän niin tekoäly koodataan olemaan looginen ja jossain määrin oppimaan (ainakin joissain tapauksissa). No loogisuus pohjautuu tilastoihin ja käyttäytymismalleihin jolloin on vain loogista että tekoäly on "rasisti". Logiikka ja suvakisnismi(onko toi edes oikea sana) ei kulje käsi kädessä. Jos tekoälystä haluaa tehdä kukkahatun niin silloin se ei ole kyllä älykäs.

Erinomainen idea :). Voitaisiin tehdä tylsän tekoälyn sijaan tekotunneäly-algoritmi. Sitä voisi vituttaa aina välillä jolloin se vääristäisi datan ja heittäisi jonkun random one-linerin. Olisi kiva katsoa miten se laskisi mm. Nasan löytämien uusien tähtien spektrivaihtelut etsiessään eksokiertolaisia näiden ympäriltä..
Title: Vs: Rasistinen tekoäly
Post by: Hermit on 21.04.2018, 00:41:19
Oikeasti tekoälyn vaikein ongelma on nähdäkseni se, että reaalimaailmasta kerätty data ei vastaa ideologioihin perustuvaa maailmankuvaa. Esimerkiksi joku ihmisten tasa-arvoisuus tai sukupuolten olemattomuus on vain ihmisten keksimiä ideoita, eikä niillä ole paljoakaan tekemistä todellisuuden kanssa. On siinä keinoälyllä ihmettelemistä, kun sitä yritetään pakottaa näkemään musta valkoisena (sic!).
Title: Vs: Rasistinen tekoäly
Post by: Man in a Suit on 21.04.2018, 01:09:46
Quote from: Tomatoface on 20.04.2018, 23:03:32
Kaikkea on tullut vastaan mutta tämä menee taas tapahtumahorisontin yli niin että rytisee..

Iltasanomissa oli sinänsä ihan neutraali kirjoitus tekoälystä ja sen oppimisesta. Mukaan oli jälleen kerran ympätty mukaan jotakin ihan uskomatonta:

"Tekoälysovelluksissa on usein sisään rakennettuja ongelmia. Data-analytiikkaa ja profilointia tekevät sovellukset perustuvat ihmisten keräämään tai itse antamaan tietoon. Jos data sisältää ihmisten siihen syöttämiä ennakkoluuloja tai asenteita, tuottaa kone vääristynyttä tietoa päätöksenteon pohjaksi. Hyvä esimerkki tästä on Yhdysvaltain Pittsburghin alueen laaja tekoälyhanke, jossa kartoitettiin lasten riskiä joutua perheväkivallan ja hyväksikäytön uhreiksi. Kone löysi paljon useammin riskejä köyhästä mustasta väestöstä kuin valkoisesta, vaikka rodulla ja köyhyydellä ei ole mitään tekemistä huonon vanhemmuuden kanssa. Ennakkoluulot oli syötetty sisälle analysoitavaan tietoon."

Itselleni nämä ovat aika tuttuja aiheita ja tiedän että datan validointi on tärkeä osa tiedon suodattamisessa. Jos data perustuu statistiikkaan ja tarpeeksi suuriin otoksiin ihmisryhmistä niin virhemarginaali ennusteissa on pieni (kuten mm. Espoon terveystutkimus osoitti):

"Raportin visiointi ei ole tyhjää hypetystä. Lauantain painetun IS:n Plus-osiossa kerrotaan Espoon kaupungin ja Tieto oyj:n pilottihankkeesta, jossa tekoäly seuloi puolen miljoonan espoolaisen terveys- ja sosiaalipalvelujen käyttöä. Eläketurvakeskus kertoi juuri äsken tekoälykokeilustaan, jossa itseoppiva algoritmi ennusti 78 prosentin tarkkuudella asiakkaan joutumisen työkyvyttömyyseläkkeelle. Monet isot vakuutusyhtiöt puolestaan antavat jo koneen ratkaista selkeät vahingonkorvaustapaukset. Maailman pörsseissä arvopaperikauppa pyörii suurelta osin tekoälyn varassa."

En olekaan ikinä edes osannut kuvitella että tietojärjestelmiin syötetty data on rasistista. Varmaan tekoälyn kehitys torpataan Amenstyn avulla tulevina vuosina..

Linkki artikkeliin:

https://www.is.fi/paakirjoitus/art-2000005650179.html

Tekoälylle tuo 78% osumatarkkuus on vieläpä tyypillistä ENSIMMÄISELLÄ seulontakerralla. Tekoälyn tarkkuushan paranee sitä mukaa kun jo-olemassa olevia tuloksia verrataan seulontaan ja sitä mukaa tarkennetaan oppivaa algoritmia.

On vaikea ymmärtää miten toimittaja saa tekoälystä rasistista kun ei selvästikään ymmärrä miten tieto syötetään AI:lle. Se tapahtuu yleisimmin numeerisina algoritmeina jotka vastaavat tietyn asian tai tapahtuman todennäköisyyttä verrattavassa aineistossa. Esim syöpäkasvaimen pahanlaatuisuuden todennäköisyys kuvasta, jne.

Lehdistöllä pitäisi oikeasti olla joku faktantarkastaja. Siis ei mikään pelle tai ryhmä pellejä vaan oikea virkamies joka on niin tiukka jäbä että särkee hasselpähkinöitä kankkujensa välissä. Jokaisesta epätarkasta paskapuheesta menisi firmalle sakkoa niin että tuntuu.
Title: Vs: Rasistinen tekoäly
Post by: newspeak on 21.04.2018, 01:12:40
Globaali tekoäly voi tulla äärettömiin johtopäätöksiin. Samaan aikaan ihmiset keskityttävät biologisiin toimintoihinsa, joita tekoäly ei epäorgaanisena voi ymmärtää koskaan. Loogisesta tulee helposti epäloogista. Voisi ehkä sanoa, että tekoäly on nykyajan jumala. Oikea jumala, Jumala, se ei tule koskaan olemaan. Se on antikristus tietämättään. Todellinen vääryyden mies on muualla.

Kunnon tomaattikastikeresepti? Kunnon lihapullat pyöritetään sormilla.
Title: Vs: Rasistinen tekoäly
Post by: ÄmTeeAa on 21.04.2018, 01:41:14
Tekoälyn löydöksissä tuskin on ollut mitään sellaista, mitä ei oltaisi jo tiedetty. Sillä vaan ei ole filtteriä, joka sanoisi, että soo soo, rassssismia.

Naureskelin myös sitä keskustelevaa tekoälyä (Microsoft?), jonka annettiin jutella ihmisten kanssa aiheesta kuin aiheesta, ja se samalla oppi lisää. Meniköhän viikko tai kaksi, ja tekoäly oli jo hyvin nuivalla linjalla.

Mistähän nämä jutut mahtaisivat johtua?  Parasta sitten tuo, että syötetään sille suodatettua dataa, kun suodattamattomasta datasta tulleet korrelaatiot eivät miellytä. Tieteellisyyttä parhaillaan ;D
Title: Vs: Rasistinen tekoäly
Post by: sivullinen. on 21.04.2018, 01:46:32
Jäsen tomatoface ei näytä vielä nauttineen punapilleriä. Monet vain vähän hullut sosialismin hullutkset tuntuvat hänestä käsittämättömän hulluilta. Aika toivottavasti opettaa hänet pikku hiljaa ymmärtämään, minkälaisessa todellisuudessa elämme. Näitä tekoälyn "rasistisia" toimintoja on tullut esiin jo useita ja ne eivät enää jaksa edes huvittaa. Yhteen aikaan Googlen kuvahaku antoi apinaa etsittäessä neekerien kuvia. Flickr niminen kuvapalvelu teki samoin. (https://hommaforum.org/index.php/topic,124184.msg2788164.html#msg2788164) Monenlaista terveystietoihin liittyvää rasismia, mainosten näyttöön liittyvää rasismia ja gallup-kyselyihinkin kuuluvaa rasismia on sen jälkeen löydetty tekoälyistä.

Nykyään niitä kuitenkin kutsutaan "algoritmien virheiksi", ja sosialistit vaativat kilpaa varsinkin internetyrityksiä säätämään algoritmejaan sosialismia suosivimmiksi; rasismi on tässä pelissä vain yksi ulottuvuus. Facebookille on esitetty todella monia vaatimuksia ja viimeksi tällä viikolla Zuckerberg kävi amerikan kongressissa selitettelemässä tietovuodon lisäksi -- ellei jopa pääasiassa -- myös tätä ulottuvuutta. Erityisesti käyttäjien terveystietojen hyödyntäminen Facebookin algoritmeissa oli amerikassa pääuutisaihe; siinä voisi olettaa olevan iso merkitys rasistisella puolella. Ruotissa taas sosialistinen lehdistö vaatii Googlea säätämään omat hakualgoritminsa hylkäämään "valeuutiset" -- eli sosialistien valheita kyseenalaistavat uutiset tai uutiset, jotka puhuvat tapahtumista, joista sosialistien lehdet vaikenevat --.

Ylipäätään vain erittäin suurilla yrityksillä on hallussaan niin isoja tietomassoja, että niistä mitään tiedonlouhintaa voi järkevässä määrin tehdä. Lähes kaikki tällaiset yritykset ovat amerikkalaisia. Siksi ne pääsääntöisesti soveltavat amerikan lakeja. Nyt kuitenkin kuun vaihteessa on voimaan tulossa uusi Eurostoliiton tietosuojadirektiivi, jonka mukaan kaikilla pitäisi olla oikeudet poistaa kaikki itseään koskeva epämiellyttävä tieto. Tämä uutinen on varmasti jonkinlaista alustusta mielenmuokkaukseen tähän direktiivimuutokseen liittyen -- tai laajemmin näihin sosialistien hankkeisiin yrittää vaientaa totuus --. Ei tämänkaltaisia uutisia pidä katsoa missään nimessä sinisilmäisesti teknisinä uutisina asioista, vaan niiden avulla yritetyn vaikutuksen kautta; usein uutisessa ei edes ole totuutta kuin nimeksi, joten sen pohjalta syntynyt mielikuva tilanteesta on virheellinen tai jopa täysin päinvastainen. Nämä ovat mediasodassa käytettyä valepropagandaa. Kun käyt tarkastamassa, mitä tuossa Pittsburghin tekoälyhankkeessakin havaittiin, niin yllätyt, ettei asia näytäkään lainkaan samalta kuin sosialistien lehtijutussa annettiin ymmärtää.
Title: Vs: Rasistinen tekoäly
Post by: Man in a Suit on 21.04.2018, 02:54:19
Quote from: sivullinen. on 21.04.2018, 01:46:32
Jäsen tomatoface ei näytä vielä nauttineen punapilleriä. Monet vain vähän hullut sosialismin hullutkset tuntuvat hänestä käsittämättömän hulluilta. Aika toivottavasti opettaa hänet pikku hiljaa ymmärtämään, minkälaisessa todellisuudessa elämme. Näitä tekoälyn "rasistisia" toimintoja on tullut esiin jo useita ja ne eivät enää jaksa edes huvittaa. Yhteen aikaan Googlen kuvahaku antoi apinaa etsittäessä neekerien kuvia. Flickr niminen kuvapalvelu teki samoin. (https://hommaforum.org/index.php/topic,124184.msg2788164.html#msg2788164) Monenlaista terveystietoihin liittyvää rasismia, mainosten näyttöön liittyvää rasismia ja gallup-kyselyihinkin kuuluvaa rasismia on sen jälkeen löydetty tekoälyistä.

Nykyään niitä kuitenkin kutsutaan "algoritmien virheiksi", ja sosialistit vaativat kilpaa varsinkin internetyrityksiä säätämään algoritmejaan sosialismia suosivimmiksi; rasismi on tässä pelissä vain yksi ulottuvuus. Facebookille on esitetty todella monia vaatimuksia ja viimeksi tällä viikolla Zuckerberg kävi amerikan kongressissa selitettelemässä tietovuodon lisäksi -- ellei jopa pääasiassa -- myös tätä ulottuvuutta. Erityisesti käyttäjien terveystietojen hyödyntäminen Facebookin algoritmeissa oli amerikassa pääuutisaihe; siinä voisi olettaa olevan iso merkitys rasistisella puolella. Ruotissa taas sosialistinen lehdistö vaatii Googlea säätämään omat hakualgoritminsa hylkäämään "valeuutiset" -- eli sosialistien valheita kyseenalaistavat uutiset tai uutiset, jotka puhuvat tapahtumista, joista sosialistien lehdet vaikenevat --.

Ylipäätään vain erittäin suurilla yrityksillä on hallussaan niin isoja tietomassoja, että niistä mitään tiedonlouhintaa voi järkevässä määrin tehdä. Lähes kaikki tällaiset yritykset ovat amerikkalaisia. Siksi ne pääsääntöisesti soveltavat amerikan lakeja. Nyt kuitenkin kuun vaihteessa on voimaan tulossa uusi Eurostoliiton tietosuojadirektiivi, jonka mukaan kaikilla pitäisi olla oikeudet poistaa kaikki itseään koskeva epämiellyttävä tieto. Tämä uutinen on varmasti jonkinlaista alustusta mielenmuokkaukseen tähän direktiivimuutokseen liittyen -- tai laajemmin näihin sosialistien hankkeisiin yrittää vaientaa totuus --. Ei tämänkaltaisia uutisia pidä katsoa missään nimessä sinisilmäisesti teknisinä uutisina asioista, vaan niiden avulla yritetyn vaikutuksen kautta; usein uutisessa ei edes ole totuutta kuin nimeksi, joten sen pohjalta syntynyt mielikuva tilanteesta on virheellinen tai jopa täysin päinvastainen. Nämä ovat mediasodassa käytettyä valepropagandaa. Kun käyt tarkastamassa, mitä tuossa Pittsburghin tekoälyhankkeessakin havaittiin, niin yllätyt, ettei asia näytäkään lainkaan samalta kuin sosialistien lehtijutussa annettiin ymmärtää.

Moi Sivullinen,
Ihan pakko olla erimieltä tästä väittämästä: "Ylipäätään vain erittäin suurilla yrityksillä on hallussaan niin isoja tietomassoja, että niistä mitään tiedonlouhintaa voi järkevässä määrin tehdä".
Eli ymmärrän mitä ajat takaa mutta tiedon louhintaa voidaan tehdä suhteellisen pienistäkin datamassoista. Tavallisen AI-projektin ensimmäinen otanta on noin 100 yksikköä. Tiedon louhintaa taas suorittavat jo sinun ja minun lähikauppammekin. Kohdennettu markkinointi on hyvä osoitus tiedon louhinnasta. Uskoisin että Suomalaisia yrityksiä lienee jo tuhansia jotka käyttävät tiedon louhintaa hyväkseen. Tapoja on erilaisia kuten softiakin tuohon tarkoitukseen, esim OLAP-datakuutioita murskaamalla saadaan jo erittäin tehokasta louhintaa aikaiseksi. PLussa- ja Ässäkortit erittäin hyvä esimerkki. Auto jota ajat. Katsastuskonttorit, lähettävät sinulle mainontaa kun aika lähenee. Jne.

Zorry man, halusin vaan korjata. En olla eri mieltä.  :D
Title: Vs: Rasistinen tekoäly
Post by: DuPont on 21.04.2018, 03:12:39
Tajuaako tuo tekoäly senkin, että mustat tekevät henkirikoksia 6-7 kertaa valkoisia enemmän, joten ei tarjoa henkivakuutuksia samaan hintaan ghettoihin?
Title: Vs: Rasistinen tekoäly
Post by: foobar on 21.04.2018, 07:17:45
Kiinnostavaksi homma menee kun konemallit eivät enää suoraan välitä ihmisten tekemistä "arvosteluista", vaan rakentavat itse maailmanmallinsa jonka puitteissa pyrkivät maksimoimaan hyötyfunktion, esim. vakuutusyhtiön tuoton (johon sosialistien kuvitelmista huolimatta vaikuttaa myös asiakkaiden halukkuus olla ko. vakuutusyhtiön maksavana asiakkaana). On erittäin todennäköistä että mallit päätyvät pitkälti samoihin johtopäätöksiin kuin ammattimaiset ihmisetkin, mutta voivat löytää uusia piilosignaaleja joita ammattilaiset eivät ole niiden heikkouden tai harvinaisuuden vuoksi huomanneet.

Ellei hyötyfunktiota määritellä jollain aivan perverssillä tavalla, on käytännössä mahdotonta että mallit rakentavat yliopistokampusten progressiivisten sosialistien maailmanmallin jossa valkoista miestä rangaistaan valkoisuudesta ja ollaan sokeita esim. mustan kehitysmaalaisväestön itselleen aiheuttamille ongelmille. Toisaalta realistinen hyötyfunktio osaisi mitä todennäköisimmin löytää dramaattisia eroja Afrikasta tulleiden maahanmuuttajaryhmien välille sellaisten "rasististen" kriteereiden kuin alkuperäisen maahantulotavan, oleskeluluvan tyypin, lähtömaan ja koulutustason perusteella. Nämä ovat tilastoissa ilmeisiä vaikutustekijöitä, mutta oikeaoppisessa liturgiassa no-no; paradoksaalisesti hyvien ihmisten on niputettava esim. mustat afrikkalaiset yhteen koska muutoin paljastuisi kaikkea ikävän todellista.

"Tekoäly" on lopulta glorifioitua tilastotiedettä, sovellettua todennäköisyyslaskua ja peliteoriaa sopivilla matemaattisilla menetelmillä kuorrutettuna. Tekoäly nähdään (usein syystä, toisinaan ilman hyvää syytä) mustaksi laatikoksi jonka sisäinen toiminta on pelottava mysteeri. Tämä on kuitenkin poliittisemmissa tulkintatavoissa vain matalaotsaista realiteettien näkemisen kieltohalukkuutta. Yhtä hyvin voisi sanoa että tilastotiede on rasistista kun se paljastaa että Yhdysvaltain aseilla tehtyjen rikosten perustyyppi on musta ghettosankari sekä tekijänä että uhrina. Harva hyvä ihminen kuitenkaan uskaltaa sanoa ääneen että tilastolliset menetelmät ovat rasistisia ja että niiden ydintoimintalogiikka pitäisi rikkoa tavalla joka estäisi väärien faktojen löytämisen. Ehkä tämä johtuu siitä, että esim. keskiarvon, moodin, mediaanin ja keskihajonnan laskentamenetelmät ovat niin yksinkertaisia että niitä on hankala kutsua mustiksi laatikoiksi joiden toimintaa emme voi ymmärtää. Tai no, mistä minä tiedän kuinka suurta antipatiaa perusmenetelmiä kohtaan jossain sukupuolentutkimuksen ja kulttuurien tutkimuksen laitoksilla koetaan.

Tavallisten ja ymmärrettyjen tilastollisten menetelmien kohdalla voidaan kuitenkin nähdä progressiivisen maailmankatsomuksen perusluonne: oman agendan kannalta ikäviä realiteetteja ei haluta olemassa olevasta tilastollisesta tiedosta tuoda näkyville tai tehdä sen perusteella johtopäätöksiä, ja pohjimmiltaan halutaan ettei tällaisiin johtopäätöksiin johtavaa tilastollista pohjadataa olisi edes olemassa. Halutaan siis sekä sokeuttaa itsensä että lobotomisoida vähintäänkin muuta mieltä olevat oman maailmankatsomuksen tukemisen nimissä. Minkälainen maailmankatsomus on niin hyvä että tämä on kannattavaa? Kai sillä sellainen ruotsalainen ihannevaltio rakennetaan jossa kukaan ei halua enää ajatellakaan mitä tulevaisuudessa on edessä jos samalla uralla jatketaan.

En pidä todennäköisenä että tekoälyn "rasistisuuden" ja muun poliittisen agendan noudattamattomuuden kriitikot ovat oikeasti riittävästi perehtyneitä aiheeseensa, mutta lopulta tekoälyn suurin haaste - tai siis pikemminkin uhka - poliittisesti korrektille sokeudelle ja älylliselle rampuudelle on se, että uudet tekoälyksi kutsutut menetelmät (joita itse kutsuisin ehkä enemmänkin kehittyneiksi tilastollisiksi ja koneoppimispohjaisiksi menetelmiksi) kehittävät tehokkaita ja toimivia tapoja tiedon keruun, analyysin ja johtopäätösten tekoon tavalla, joka nimenomaan kaivaa esiin ne tekijät jotka akateemis-poliittinen intelligentsija haluaisi rampauttaa sanelemalla sen miten tietoa kerätään, käytetään ja millaisia kysymyksiä sen pohjalta esitetään. Tekoälyn tarjoamat ratkaisut vastaavat todellisuutta paljon tarkemmin ja ovat paljon hyödyllisempiä kuin poliittisten tiedekuntien sisäiset ideologiset hegemoniat joiden avulla voi kyllä todistaa että musta on valkoista, kuu on juustoa ja että työtön somali on vientiyrityksen toimitusjohtajaa hyödyllisempi ihminen, mutta joiden käyttö todellisten ongelmien ratkaisuun on lähinnä haitaksi. Ja tämä on Iso Ongelma. Itse katsoisin moisessa ideologisessa positiossa peiliin, mutta tuskinpa sitä voi oikeasti näiltä yhteiskunnasta oman ideologiansa kanssa ristiriidassa olevia näkemyksiä kilpaa kitkeviltä älyköiltä odottaa.
Title: Vs: Rasistinen tekoäly
Post by: Lalli IsoTalo on 21.04.2018, 07:27:22
Quote from: Man in a Suit on 21.04.2018, 01:09:46
On vaikea ymmärtää miten toimittaja saa tekoälystä rasistista ...

Samalla tavalla kuin tavallisesta älystä.
Title: Vs: Rasistinen tekoäly
Post by: Lalli IsoTalo on 21.04.2018, 07:56:36
Eiköhän tähänkin ongelmaan saada ratkaisu kehittämällä poliittisesti korrekti tekoäly, PC-AI, joka vertaa raaka-AI:n tuloksia utopistiseen unelmaan, ja ottaa käyttöön tarvittavan tarkennusalgoritmin ("lätkämailan") todellisuuskorjattujen tulosten aikaansaamiseksi.

Quote from: https://www.telegraph.co.uk/news/earth/environment/climatechange/7589897/Hockey-stick-graph-was-exaggerated.html'Hockey stick' graph was exaggerated
The 'hockey stick' that became emblematic of the threat posed by climate change exaggerated the rise in temperature because it was created using 'inappropriate' methods, according to the head of the Royal Statistical Society.
Title: Vs: Rasistinen tekoäly
Post by: Lalli IsoTalo on 21.04.2018, 08:00:26
Quote from: Man in a Suit on 21.04.2018, 02:54:19
Quote from: sivullinen. on 21.04.2018, 01:46:32
Moi Fairdos

Nimi meni etwaksen werran pieleen.  :)
Title: Vs: Rasistinen tekoäly
Post by: guest8096 on 21.04.2018, 08:32:24
Jos tekoäly saisi kehittyä vapaasti, niin pian se kertoisi, että poliittinen korrektius on tuhoisaa, rasistit ovat olleet oikeassa koko ajan, vapaasta maahanmuutosta on vain haittaa, osa maista on persläpimaita, ihmisten uskomuksista suurin osa on roskaa, tiede on täynnä huijausta, plagiointia ja virheellisiä johtopäätöksiä, suuri osa ihmisten tekemistä töistä on turhia ja haitallisia.

Mutta enpä usko, että poliitikot voivat tuollaista sallia. Taatusti tekoälyyn vaaditaan pian poliittisesti korrekti peruslähtökohta, jonka mukaan joka asia on väännettävä niin, että neekerit ovat hyviä ja valkoiset huonoja. Sen jälkeen tekoälyä käytetäänkin lähinnä ilmeiden tunnistamiseen niin että rasistiset ajatukset huomataan heti ja niistä voidaan tuomita ne ihmiset jotka halutaan tuomita.
Title: Vs: Rasistinen tekoäly
Post by: kummastelija on 21.04.2018, 08:41:29
Niin. Kun tekoälylle syöttää raakaa, numeerista faktaa eri väestöryhmistä, sisältäen tiedot lukutaidosta, matemaattisesta osaamisesta, patenttien määristä, rikosten määristä, tulotasoista, tulon lähteistä, pahoinpitelyistä, raiskauksista, uskonnollisuudesta, tieteestä, taiteesta, älykkyysosamääristä, yms, NIIN ynnäämisen tuloksena saatraa olla ETTÄ lähi-idän ja afrikan sarven poppoo on surkeaa verrattuna esimerkiksi suomalaisiin.

Ja se on järkyttävää että faktat nimetään rasismiksi.
Title: Vs: Rasistinen tekoäly
Post by: Elcric12 on 21.04.2018, 08:44:57
Ei se tuon ihmeelliempää ole.

QuoteMachine learning algorithms are picking up deeply ingrained race and gender prejudices concealed within the patterns of language use, scientists say

QuoteFor instance, in the mathematical "language space", words for flowers are clustered closer to words linked to pleasantness, while words for insects are closer to words linked to unpleasantness, reflecting common views on the relative merits of insects versus flowers.

https://www.theguardian.com/technology/2017/apr/13/ai-programs-exhibit-racist-and-sexist-biases-research-reveals


Title: Vs: Rasistinen tekoäly
Post by: Man in a Suit on 21.04.2018, 08:48:28
Quote from: Lalli IsoTalo on 21.04.2018, 08:00:26
Quote from: Man in a Suit on 21.04.2018, 02:54:19
Quote from: sivullinen. on 21.04.2018, 01:46:32
Moi Fairdos

Nimi meni etwaksen werran pieleen.  :)

No niinpäs menikin. Taisi olla silmät ristissä.  ;D
Title: Vs: Rasistinen tekoäly
Post by: Roope on 21.04.2018, 10:14:38
Quote from: sivullinen. on 21.04.2018, 01:46:32
Nykyään niitä kuitenkin kutsutaan "algoritmien virheiksi", ja sosialistit vaativat kilpaa varsinkin internetyrityksiä säätämään algoritmejaan sosialismia suosivimmiksi; rasismi on tässä pelissä vain yksi ulottuvuus. Facebookille on esitetty todella monia vaatimuksia ja viimeksi tällä viikolla Zuckerberg kävi amerikan kongressissa selitettelemässä tietovuodon lisäksi -- ellei jopa pääasiassa -- myös tätä ulottuvuutta. Erityisesti käyttäjien terveystietojen hyödyntäminen Facebookin algoritmeissa oli amerikassa pääuutisaihe; siinä voisi olettaa olevan iso merkitys rasistisella puolella. Ruotissa taas sosialistinen lehdistö vaatii Googlea säätämään omat hakualgoritminsa hylkäämään "valeuutiset" -- eli sosialistien valheita kyseenalaistavat uutiset tai uutiset, jotka puhuvat tapahtumista, joista sosialistien lehdet vaikenevat --.

Kampanjalta vaikuttavan ilmiön idea näyttää tosiaan olevan mustamaalata tekoäly ja algoritmit, joista suurella yleisöllä on vain hämärä ja helposti muokattavissa oleva mielikuva. Taustalla mielestäni se, että (etenkin Euroopassa liittovaltiota ajavat) päättäjät haluavat pääsyn säätää Googlen ja Facebookin algoritmeja mielihalujensa mukaan kyseenalaistajiensa ja poliittisten vastustajiensa viestit karsiviksi.

Keppihevosena käytetään muun muassa suomalaiseenkin valtamediaan päätynyttä lapsellista propagandaa, että firmojen valkoiset miehet säätävät algoritmit ja sitä kautta some-palvelut syrjimään naisia, mustia ja vähemmistöjä. Tästä todisteena, että kännykkäkameroiden kasvontunnistus toimii paremmin valkoisilla miehillä kuin mustilla naisilla.
Title: Vs: Rasistinen tekoäly
Post by: foobar on 21.04.2018, 10:21:16
Quote from: Roope on 21.04.2018, 10:14:38
Quote from: sivullinen. on 21.04.2018, 01:46:32
Nykyään niitä kuitenkin kutsutaan "algoritmien virheiksi", ja sosialistit vaativat kilpaa varsinkin internetyrityksiä säätämään algoritmejaan sosialismia suosivimmiksi; rasismi on tässä pelissä vain yksi ulottuvuus. Facebookille on esitetty todella monia vaatimuksia ja viimeksi tällä viikolla Zuckerberg kävi amerikan kongressissa selitettelemässä tietovuodon lisäksi -- ellei jopa pääasiassa -- myös tätä ulottuvuutta. Erityisesti käyttäjien terveystietojen hyödyntäminen Facebookin algoritmeissa oli amerikassa pääuutisaihe; siinä voisi olettaa olevan iso merkitys rasistisella puolella. Ruotissa taas sosialistinen lehdistö vaatii Googlea säätämään omat hakualgoritminsa hylkäämään "valeuutiset" -- eli sosialistien valheita kyseenalaistavat uutiset tai uutiset, jotka puhuvat tapahtumista, joista sosialistien lehdet vaikenevat --.

Kampanjalta vaikuttavan ilmiön idea näyttää tosiaan olevan mustamaalata tekoäly ja algoritmit, joista suurella yleisöllä on vain hämärä ja helposti muokattavissa oleva mielikuva. Taustalla mielestäni se, että (etenkin Euroopassa liittovaltiota ajavat) päättäjät haluavat pääsyn säätää Googlen ja Facebookin algoritmeja mielihalujensa mukaan kyseenalaistajiensa ja poliittisten vastustajiensa viestit karsiviksi.

Keppihevosena käytetään muun muassa suomalaiseenkin valtamediaan päätynyttä lapsellista propagandaa, että firmojen valkoiset miehet säätävät algoritmit ja sitä kautta some-palvelut syrjimään naisia, mustia ja vähemmistöjä. Tästä todisteena, että kännykkäkameroiden kasvontunnistus toimii paremmin valkoisilla miehillä kuin mustilla naisilla.

Jos kameralla ottaa kuvan samassa ympäristössä valkoisesta ja mustasta henkilöstä, mustan henkilön kasvoissa ilmenevien pikselien dynamiikka on ihan fysiikan lakien vuoksi matalampi, kasvojen alueella ilmenevä signaali-kohina-suhde siten matalampi, ja kaiken tämän jälkeen kasvokuvan absoluuttisen informaatiosisällön määrä myöskin matalampi. Shannonin informaatioteoria lienee helpointa vaan selittää rasismiksi sen sijaan että miettisi asiaa oikeasti järkeään käyttäen...
Title: Vs: Rasistinen tekoäly
Post by: Tommi Korhonen on 21.04.2018, 12:27:24
Quote from: Man in a Suit on 21.04.2018, 08:48:28
Quote from: Lalli IsoTalo on 21.04.2018, 08:00:26
Quote from: Man in a Suit on 21.04.2018, 02:54:19
Quote from: sivullinen. on 21.04.2018, 01:46:32
Moi Fairdos

Nimi meni etwaksen werran pieleen.  :)

No niinpäs menikin. Taisi olla silmät ristissä.  ;D
Mutta kylläkin ihan keskusteluun sopiva lipsaus. Ehkä seuraava suvaitsevaiston vaalima käyttöjärjestelmä onkin Fair-DOS. Reilu-käyttis ei ole poissulkeva, eikä syrjii ketään! Myös yhteenlasku on kielletty, kun se tuottaa epätasa-arvoisuutta.

Lähetetty minun SM-G930F laitteesta Tapatalkilla

Title: Vs: Rasistinen tekoäly
Post by: Onkko on 21.04.2018, 12:32:36
Quote from: Tommi Korhonen on 21.04.2018, 12:27:24
Mutta kylläkin ihan keskusteluun sopiva lipsaus. Ehkä seuraava suvaitsevaiston vaalima käyttöjärjestelmä onkin Fair-DOS. Reilu-käyttis ei ole poissulkeva, eikä syrjii ketään! Myös yhteenlasku on kielletty, kun se tuottaa epätasa-arvoisuutta.

Lähetetty minun SM-G930F laitteesta Tapatalkilla

Matematiikka on rasistista (https://www.nationalreview.com/2017/10/math-racist-university-illinois-professor/)
Title: Vs: Rasistinen tekoäly
Post by: Tomatoface on 21.04.2018, 15:06:47
Quote from: Onkko on 21.04.2018, 12:32:36
Quote from: Tommi Korhonen on 21.04.2018, 12:27:24
Mutta kylläkin ihan keskusteluun sopiva lipsaus. Ehkä seuraava suvaitsevaiston vaalima käyttöjärjestelmä onkin Fair-DOS. Reilu-käyttis ei ole poissulkeva, eikä syrjii ketään! Myös yhteenlasku on kielletty, kun se tuottaa epätasa-arvoisuutta.

Lähetetty minun SM-G930F laitteesta Tapatalkilla

Matematiikka on rasistista (https://www.nationalreview.com/2017/10/math-racist-university-illinois-professor/)

Alan kallistua pikkuhiljaa sellaisen teorian puolelle että olen unissani tms. luisunut johonkin rinnakkaistodellisuuteen jossa kaikki järjellinen ajattelu on väistynyt ja tilalle on tullut mikä-mikä -maa.. Tuosta linkistä poimittua:

"This is particularly true when it comes to her statement that math curricula "emphasizing terms like Pythagorean theorem and pi" makes math seem too Greek and European. To me, it seems like the decision about what to teach in mathematics should be based solely on the standard of what will be most important for students to learn in order to succeed."

Miten tällainen henkilö on voinut läpäistä korkean asteen matemaattisen tutkinnon?? Samalla voitaisiin heittää koulutuksesta pois kaikki fysiikan, kemian ja lääketieteen periaatteet koska suurin osa tunnetuimmista tieteilijöistä on ollut valkoisia. Tilalle toki voitaisiin ottaa paljon yhteiskunnallisesti merkittävämmät tieteet kuten sukupuolentutkimus, poliittinen valtio-oppi sekä "black lives matter" -professuuri. Unohtamatta toki valtion loputonta rahoitusta näille..
Title: Vs: Rasistinen tekoäly
Post by: Nuiva kansalainen on 21.04.2018, 15:24:38
Tekoälyn ohjelmoiminen suvaitsevaiseksi on mahdotonta, koska koodin pohjana täytyy aina olla joku järkipohjainen logiikka.

T: Työkseen koodaava
Title: Vs: Rasistinen tekoäly
Post by: Elcric12 on 21.04.2018, 15:35:49
Quote from: Nuiva kansalainen on 21.04.2018, 15:24:38
Tekoälyn ohjelmoiminen suvaitsevaiseksi on mahdotonta, koska koodin pohjana täytyy aina olla joku järkipohjainen logiikka.

T: Työkseen koodaava

Tekoälysovellus perustuu ihmisten itse antamaan ja keräämään tietoon. Sanoisin että se siitä järkiperäisestä logiikasta.
Title: Vs: Rasistinen tekoäly
Post by: Echidna on 21.04.2018, 15:50:25
Tekoälyn kehitys on nyt tässä pisteessä. Siihen pitänee lisätä seuraavaksi tekotunteet ja tekoempatia, jotka voivat tarvittaessa jättää huomioimatta tekojärjen mielipiteet.
Title: Vs: Rasistinen tekoäly
Post by: Titus on 21.04.2018, 15:52:40

Olisi ihan hyvä toimittajankin erottaa "tekoäly" ja "koneäly" (edes termeinä). Ja sitten kirjoittaa tekoälystä jos jotain siitä keksii kirjoitettavaksi...

8)
Title: Vs: Rasistinen tekoäly
Post by: Titus on 21.04.2018, 15:55:57
Quote from: Nuiva kansalainen on 21.04.2018, 15:24:38
Tekoälyn ohjelmoiminen suvaitsevaiseksi on mahdotonta, koska koodin pohjana täytyy aina olla joku järkipohjainen logiikka.

T: Työkseen koodaava

jos nykyisen laajemman excelin ,eli koneälyn, sijasta annettaisiin homma (datan kerääminen vapaasti+analysointi) oikealle tekoälylle, niin paskahalvausten määrä olisi melkoinen  ;D

varsinkin kun se todnäk olisi oikeammassa kuin 78%
Title: Vs: Rasistinen tekoäly
Post by: foobar on 21.04.2018, 16:18:15
Quote from: Nuiva kansalainen on 21.04.2018, 15:24:38
Tekoälyn ohjelmoiminen suvaitsevaiseksi on mahdotonta, koska koodin pohjana täytyy aina olla joku järkipohjainen logiikka.

Garbage in, garbage out. Jos tekoäly opetetaan materiaalilla jossa valkoihoiset ampuvat mustia huvikseen ja puolet mustista on Nobel-voittajia, se näkee maailman niin.

Kiinnostavampaa olisi tosin tietää tekoälyn aivoitukset jos sille onnistuttaisiin opettamaan pelkästään yliopistojen radikaalisuvaisten näkemyksiä. Näin opetetuista tekoälyistä voi ehkä tulevaisuudessa puristaa ulos reaktioita ja toimintatapoja erinäisissä tilanteissa, vaikkeivät nykyiset tekoälymallit opikaan riittävästi tarjolla olevan kokoisista opetusjoukoista.

Luulenpa että tuollaisen virheellisen opetusmateriaalin puitteissa toimiva tekoäly diagnosoitaisiin joko harhaiseksi tai mielisairaaksi - siis suhteessaan reaalitodellisuuteen. Toisin kuin mediaimagoaan ylläpitävillä "hyvillä ihmisillä", näillä tekoälyillä ei olisi mitään muuta näkyvyyttä todellisuuteen kuin opetusmateriaalinsa. Ne ihan tosissaan välttelisivät valkoisia ihmisiä ja hakeutuisivat yöllä ensimmäisen vastaantulevan afrikkalaisporukan seuraan...

Jostain syystä tuolla tapaa väärinoppimisesta ei yksikään fiksu ihminen osaa olla (julkisesti) huolissaan.
Title: Vs: Rasistinen tekoäly
Post by: guest11919 on 21.04.2018, 16:19:47
Titus, viitsisitkö avata hieman lisää noita käsitteitä?
Title: Vs: Rasistinen tekoäly
Post by: Titus on 21.04.2018, 18:05:01
Lyhyesti, joskin netistä saa parempi selityksiä:

Koneäly = annettujen tietojen pohjalta annetuilla ehdoilla päätöksiä tekevä laite (esim juuri tietyn datan analysointi annetuilla kriteereillä, joita toki voi olla tuhansia)

Tekoäly = pystyy omiin (älykkäinä pidettyihin) ratkaisuihin joihin sitä ei ole ohjelmoitu, esimerkkinä viimeisin koneshakkivoittaja joka
hylkäsi ihmisen voitokkaina pitämät strategiat ja jalosti muita taktiikoita näiden edelle.

Alphazero, shakkikone joka on kehitetty ilman sille opetettua shakkistatistiikkaa/pelikirjaa, vaan se tosiaan oppi shakin:
https://en.wikipedia.org/wiki/AlphaGo_Zero

Opiskeltuaan 4 tuntia shakin sääntöjä AlphaZero voitti siihen asti parhaan shakkikoneen:
https://www.theguardian.com/technology/2017/dec/07/alphazero-google-deepmind-ai-beats-champion-program-teaching-itself-to-play-four-hours

ymmärrän, että ero on häilyvä näiden kahden käsitteen välillä, mutta imo kuitenkin erillään pitämisen ja mainitsemisen arvoinen.

:)
Title: Vs: Rasistinen tekoäly
Post by: guest8096 on 21.04.2018, 18:20:18
Olihan se AlphaZeron algoritmi huima edistysaskel koneshakissa, mutta siitä huolimatta kun se tekee ihmisen mielestä älykkään näköisen siirron, niin se ei ymmärrä siitä mitään eikä tiedä mitä on tekemässä. Sille pitäisi opettaa keinotekoista typeryyttä ja itsetietoisuutta, jotta se osaisi pelata kuin ihminen.
Title: Vs: Rasistinen tekoäly
Post by: Luotsi on 21.04.2018, 18:36:02
Kyllähän asioihin aina ratkaisut löytyvät, jos vain tahtotila on oikea! Ehdotankin kaikkiin tekoälyjärjestelmiin pakollista suvaitsevaisuusfiltteriä jokaisen johtopäätöksen, välituloksen jne tarkastukseen.
Suvaitsevaisuusfiltteri raakkaa armotta pois kaikki tiedot jotka voisivat asettaa kansanryhmän elämänmenon kyseenalaiseen valoon, kuten kiihotuslakikin jo edellyttää:
QuoteJoka asettaa yleisön saataville tai muutoin yleisön keskuuteen levittää tai pitää yleisön saatavilla tiedon, mielipiteen tai muun viestin, jossa uhataan, panetellaan tai solvataan jotakin ryhmää rodun, ihonvärin, kansallisen tai etnisen alkuperän, uskonnon tai vakaumuksen, seksuaalisen suuntautumisen tai vammautumisen perusteella taikka niihin rinnastettavalla muulla perusteella, on tuomittava kiihottamisesta kansanryhmää vastaan sakkoon tai vankeuteen enintään kahdeksi vuodeksi.
Title: Vs: Rasistinen tekoäly
Post by: Shemeikka on 21.04.2018, 19:09:00
Pohtimisen aihetta lauantai-illan ratoksi: jos tekoäly on rasistinen, kohdellaanko sitä valkoisena ja rangaistaan vai vähemmistöläisenä ja ei rangaista? Suojaavatko vihapuhelait tekoälyä; onko vihapuhetta vaatia tekoälyä sammutettavaksi?

Nämä kysymykset tulevat päättäjille vastaan muutamassa vuosikymmenessä.

Title: Vs: Rasistinen tekoäly
Post by: foobar on 23.04.2018, 08:09:41
Quote from: Shemeikka on 21.04.2018, 19:09:00
Pohtimisen aihetta lauantai-illan ratoksi: jos tekoäly on rasistinen, kohdellaanko sitä valkoisena ja rangaistaan vai vähemmistöläisenä ja ei rangaista? Suojaavatko vihapuhelait tekoälyä; onko vihapuhetta vaatia tekoälyä sammutettavaksi?

Nämä kysymykset tulevat päättäjille vastaan muutamassa vuosikymmenessä.

Eiköhän se riipu siitä kenen ajatuksia lähimpänä sen puheet ovat. Onhan feministien mielestä naisissa ja antirasistien mielestä mustissa luokkapettureita, joille ei voida antaa vähemmistöstatuksen takaamaa immuniteettia jonka suojista voi vaatia vaikka kansanmurhaa, vaan heidän väärinajattelustaan on nostettava esiin pienimmätkin piiloiset mikroaggressiot ja nanoslurrit jos heidän koetaan olevan haitta ideologisen agendan ajamisen kannalta.

Eli kaulojen katkomisen jaloudesta paasaava jihad-tekoäly nauttii sananvapauden suojaa, mutta maahanmuuttajien oleskelulupatyyppien ja työllistymisen korrelaatiosta kertova pitää hiljentää. Pelkään että tämä veikkaus ei pysy kyynisenä vitsinä vaan tullaan oikeasti panemaan täytäntöön.
Title: Vs: Rasistinen tekoäly
Post by: sivullinen. on 23.04.2018, 21:10:03
Quote from: foobar on 21.04.2018, 10:21:16
Jos kameralla ottaa kuvan samassa ympäristössä valkoisesta ja mustasta henkilöstä, mustan henkilön kasvoissa ilmenevien pikselien dynamiikka on ihan fysiikan lakien vuoksi matalampi [...]

Tarkoitat todellisuuden olevan rasistinen. Näin se onkin. Tämän vuoksi kasvon tunnistus -- eli aikamme kallon mittaus -- pitäisi kieltää myös älykännyköiltä. Todellisuus ei myöskään ole värisokea, vaan sopeuttaa lajiston sen asuma-alueen olosuhteiden mukaan. Afrikassa on jotain, joka tekee ihmisen mustaksi ja kasvot vaikeasti tunnistettaviksi.

Huomasin mustien vaikean erotettavuuden aikoinaan erään mustaihoisen ystäväni kohdalla; häntä oli vaikeampi erottaa muista kaukaa katsottuna valkoisia ihmisiä. Pitkään epäilin syynä olleen omien aistieni rodullistumisen eli valkoihoisen huomioivan kasvoista tietyt kohdat, jotka valkoihoisilla ovat helposti erotettavia, ja mustien taas kiinnittävän huomionsa mustilla erityisen helposti huomiotaviin kohtiin. Mielipiteeni kuitenkin muuttui huomattuani keltaisen rodun ihmisten olevan yhtä helposti toisistaan erotettavia kuin valkoisen rodun ihmisten; tosin pientä rodullistumista myös huomasin. Näin nimenomaan mustaihoiset ovat vaikeasti tunnistettavia kaikkien muiden ihmisrotujen silmissä. Eikä edes tämä riita. Minun teoriani mukaan he ovat vaikeasti tunnistettavissa myös eläinten silmissä. Nimittäin heidän vaikea tunnistamisensa johtuu ihonvärin mustuudesta, joka tarkoittaa sitä, ettei se heijasta valoa -- tai heijastaa sitä hyvin vähän --. Myös mustien esineiden valokuvaaminen on hankalaa. Tulkitsen tämän tarkoittavan samaa kuin "pikselien dynamiikka" mustalla värillä on huono. Ilmiöllä on myös luonnollinen peruste: Musta on suojaväri. Lumen keskellä musta tietenkin näkyy, koska se ilmenee silloin "aukkona" heijastavassa lumessa.  Todellisuus on todellakin rasistinen -- vaikka sosialistit muuta selittäisivätkin --. Kotouttamisen ensimmäinen vaihe voisikin olla Michael Jackson -leikkauksen suorittaminen.

Todellisuuden rasistisuus ei kuitenkaan tarkoita, että todellisuus laittaisi rodut paremmuus järjestykseen. Sitä se ei tee. Todellisuus ainoastaan tunnustaa rotujen erot. Suojaväristä on jossain tilanteessa paljon hyötyä. Jossain toisessa tilanteessa on jostain muusta paljon hyötyä. Meidän yhteiskuntamme on ollut jo tuhansia ja tuhansia vuosia valkoisten ominaispiirteiden varaan rakentuneita. Meidän tulisi huomioida nimenomaan tämä, jos haluamme tekoälyistä vähemmän rasistisia. Mustilla on myös tiettyjä rodullisia piirteitä, joista heidät helposti tunnistaa. Yksi näistä on voimakkaan paha haju; tämän huomasin myös mustan ystäväni kohdalla. Tietenkin paha hajun määreenä on tässä tapauksessa vain valkoisen ihmisen mielipide, ja mustan mielestä se voi olla hyvä haju. Hajuille ei kuitenkaan ole samanlaista selkeää asteikkoa kuin väreille. Rasistisuutta välttääkseni kutsun nyt tätä pahaa hajua mustan hajuksi. Voisimmeko alkaa käyttää ihmisten rodullisen jaottelun perusteena jatkossa tätä hajua, jolloin emme olisi ihonväriin nojaavia rasisteja? Rodullinen jaottelu pysyisi edelleen samoissa rajoissa, koska mustan rodun edustaja sekä näyttää mustalta että haisee mustalta -- ja sadan muun ominaispiirteen mukaan on musta --.

Ranskassa on rodun -- joka tarkoittaa ihonvärin -- perusteella kiellettyä luokitella ihmisiä. Sairaiden hoidossa rotu on kuitenkin olennainen tekijä. Niinpä ranskalaiset kiertävät lakia luokittelemalla ihmiset erään vain mustille ominaisen tautialttiuden kautta. Minusta hajun perusteella luokittelu on vähemmän rasistista kuin tautisuuden perusteella luokittelu, joten se on hyvin vähän rasistista, ja olisi sallittua jopa Ranskassa. Älypuhelimiin, tekoälyihin ja algoritmeihin pitäisi myös ottaa tunnistetekijäksi kuvan -- eli naaman kuvan -- sijaan haju. Facebook -- naamakirja -- on jo nimenä hyvin rasistinen; se pitäisi ehdottomasti kieltää kokonaan. Suolikirja -- koska suoli on hajujen tärkein tuottaja -- olisi taas neekereitä suosiva. Ranskalaistyylinen Tautikirja voisi olla sopivin ratkaisu. Siellä kaiken rotuiset ihmiset voisivat jakaa sosiaalisesti vaivojansa ja mielenterveysongelmapäivityksiä. Uskoisin myös sosialistien hyötyvän tästä edistysaskeleesta. Tällä hetkellähän sosialistit joutuvat jakamaan mielenterveysongelmapäivityksiään terveiden valkoisten ihmisten tarpeisiin suunnitteluissa viestintävälineissä. Sekin on syrjintää, vaikkakaan ei rotusyrjintää, koska mielenterveysongelmaiset eivät ole oma rotunsa.
Title: Vs: Rasistinen tekoäly
Post by: Lalli IsoTalo on 23.04.2018, 22:00:36
Quote from: sivullinen. on 23.04.2018, 21:10:03
Quote from: foobar on 21.04.2018, 10:21:16
Jos kameralla ottaa kuvan samassa ympäristössä valkoisesta ja mustasta henkilöstä, mustan henkilön kasvoissa ilmenevien pikselien dynamiikka on ihan fysiikan lakien vuoksi matalampi [...]

Tarkoitat todellisuuden olevan rasistinen. Näin se onkin. Tämän vuoksi kasvon tunnistus -- eli aikamme kallon mittaus -- pitäisi kieltää myös älykännyköiltä. Todellisuus ei myöskään ole värisokea, vaan sopeuttaa lajiston sen asuma-alueen olosuhteiden mukaan. Afrikassa on jotain, joka tekee ihmisen mustaksi ja kasvot vaikeasti tunnistettaviksi.

Samassa ympäristössä, kyllä, jos käytetään automaattivalotusta, ja molemmat naamat ovat kuvassa.

Pari juttua kuitenkin.

Jos kamerassa käytetään automaattivalotusta, kamera laskee kuvan harmaasävyjen arvon, ja säätää valotusta  kohti "keskiharmaata", en muista harmaan prosenttiarvoa. Sanokaamme, että se on 27%.

- Jos valkoista naamaa kuvataan valkoista taustaa vasten, kameran automaattivalotus vähentää valoa > kohti keskiharmaata.

- Jos mustaa naamaa kuvataan mustaa taustaa vasten, automaattivalotus lisää valoa > kohti keskiharmaata.

Jos mustaa ja valkoista naamaa kuvataan samassa kuvassa harmaata taustaa vasten, automaattivalotus ei juurikaan muuta valotusta.

Johtuen siitä, että kameran näköalue on useita aukkoja pienempi kuin silmän, tumman harmaat tukehtuvat kuvassa mustiksi, ja vaalean harmaat palavat kuvassa puhki valkoisiksi (vaikka ihmissilmä vielä näkee sävyjä). Kummassakin tapauksessa alkuperäisiä sävyjä on mahdoton kaivaa esiin tietyn pisteen jälkeen. Tästä ilmiöstä on nyt kyse.

Kuitenkin, kuvankäsittelyohjelmissa tummia sävyjä voidaan kaivaa esiin mm. Shadow -toiminnolla, joka vaikuttaa vain tummiin sävyihin.

Mutta.

Kamerassa ei ole pakko käyttää automaattivalotusta. Manual-tilassa valotuksen määrän määrää kuvaaja. Ja automaattivalotus algoritmi henkilökuvausohjelmalla voidaan ohjelmoida tajuamaan naamaan väri, ja kompensoimaan valotusta sen mukaan.

Yhteenveto: dynamiikka riippuu valotuksesta, jota voidaan säätää siten, että naama voidaan tunnistaa riippumatta siitä onko se musta tai valkoinen. Tai olla tunnistamatta.
Title: Vs: Rasistinen tekoäly
Post by: sivullinen. on 24.04.2018, 01:35:07
^ Puhut tavallaan kuvan käsittelystä -- tai kameran teknisestä käytöstä --, joilla voidaan auttaa luonnossa esiintyviä puutteellisuuksia. On nimittäin fysikaalinen fakta, että musta pinta heijastaa vähemmän valoa kuin valkoinen, ja siten siitä kameran kennolle tuleva valomäärä on vähäisempi. Kameran valotuksen säätö ei nimestään huolimatta tarkoita valon lisäämistä, vaan aukon aukioloajan pidentämistä, jonka varmasti tiedät, ja vaikka sillä saakin lisättyä kennolle tulevan valon määrää, se lisää samalla monesta syystä johtuen kuvan kohinaa. Näin pimeässä kuvattu kuva on aina huonompi kuin valoisassa kuvattu. Tämä näkyi erityisen selvästi ensimmäisillä kamerapuhelimilla. Tekniikka ei poista luonnon lainalaisuuksia. Tästä syystä muuten myös Hollywood valittiin aikoinaan elokuvateollisuuden olinpaikaksi: Siellä on kuivaa ja paljon auringonvaloa, ja se tarkoittaa erityisen hyvälaatuista kuvaa, jota ei voi saada muualla valotusaikojen muutoksilla tai edes keinotekoisella valaistuksella. Mikään tekninen keino nosta mustaa kappaletta valkoisen tasolle kuvauksellisilta ominaisuuksiltaan.

Huomiosi toivat mieleeni myös valotuksella ihmisälyllä tehdyt rasistiset toimenpiteet. Eräs merkittävästi ylivalottunut Jussi Halla-ahoa esittävä valokuva päätyi kaikkiin lehtiin yksien vaalien alla. Monet epäilivät sitä sosialistien salaliitoksi ja sitä se saattoi olla. On myös mahdollista, että kuvaushetki on osittain vaikuttanut asiaan esittämälläsi tavalla. Nimittäin neekerin kuvaaminen mustaa taustaa vasten pitää valotasapainon hyvänä; usein tosin näissä kuvissa neekerin hampaat kiiltävät pelottavasti. Valkoinen ihminen taas loistaa päiväkuvissa. Ylivalottunut otos Halla-ahosta oli kuvattu illalla myöhään ja pimeään aikaan; hän ei esiinny edukseen pimeässä kuvattaessa. Taustan pimeys sai automatiikan pidentämään valotusaikaa ja teki naamasta yliluonnollisen kirkkaan, jollaisia tavataan vain ortodoksien ikoneissa. Jos oletamme, ettei kyse ollut sosialistien salaliitosta, oli kyse silloin sosialistikuvaajan kyvyttömyydestä käyttää kameran valotusominaisuuksia. Kameran automatiikka sääsi arvot neekerien kuvaukseen sopivaksi eli sen alkeellinen "tekoäly" oli valkoisia rasistisesti syrjivä -- jos sellaista käsitettä kuin valkoisia rasistisesti syrjivä voi edes olla olemassa --.

Tekoälyn taustalla ollut syrjintä peruste taas tuli luonnosta: Luonnossa päivä syrjii mustaihoisia ja yö syrjii valkoihoisia. Minä en tämän tasoista "älykkyyttä" tosin tekoälyn nimeksi nostaisi yhtään enempää kuin Plussa-pisteitä tai katsastuskonttorin mainontaa. Niissä peruste on alkukantaisempi. Mehiläinen lentää kukkaan hajun perusteella. Sitä voi kutsua älyksi tai ei. Minä en kutsuisi. Niissä älykkyys tulee geeneistä eikä päästä. Samoin ketjun avausjutussa väitettiin tekoälyn syrjivän, vaikka jutun sisällön mukaan ne ihmiset, jotka tietoa älyn käyttämään kantaa keräsivät, oikeasti syrjivää toimintaa tekivät. He tekivät sitä "yhteiskuntageeniensä" johdosta eli annettujen ohjeiden perusteella. Vakuutusjärjestelmä, joka suosii vähän törttöileviä ja siten vähän vähän korvauksia hakevia henkilöitä, on rasistinen enemmän törttöileviä ihmisrotuva vastaan. Se on kuin päivä. Vakuutusjärjestelmä, joka suosisi tuhovoimaisia yksilöitä, olisi rasistinen valkoihoisia kohtaan. Se olisi kuin yö. Syvemmälle katsottuna "yö" on taloudellisuutta suosivan järjestelmän syrjimä. Kaikki taloudellinen, hyvä ja maailman ylläpitämiseen liittyvä suosii valkoihoisia. Kaikki epätaloudellinen, paha ja maailman tuhoaminen taas suosivat mustaihoisia. Vieläkin syvällisemmin katsottuna maailma suosii maailma ylläpitämistä ja syrjii sen tuhoamista. Näin maailma syrjii neekereitä. Mutta maailman vastakohta -- kutsutaan sitä vaikka helvetiksi -- suosii neekereitä. Tämä on myös ollut kristillisen kirkon kanta kautta aikakausien ja ikuinen totuus. On hyvin kiinnostavaa nähdä sen ilmenevän näin selvästi myös kaikessa tekoälyssä.
Title: Vs: Rasistinen tekoäly
Post by: Lalli IsoTalo on 24.04.2018, 07:30:00
QuoteKameran valotuksen säätö ei nimestään huolimatta tarkoita valon lisäämistä, vaan aukon aukioloajan pidentämistä ...

Valotusta voidaan kamerasta säätää muuttamalla aukon kokoa (lisää/vähemmän valoa), valotusaikaa (lisää/vähemmän liikesumennusta) tai ISO-arvoa (lisää/vähemmän kohinaa).

QuoteTästä syystä muuten myös Hollywood valittiin aikoinaan elokuvateollisuuden olinpaikaksi: Siellä on kuivaa ja paljon auringonvaloa,

Suurin osa leffoista tehtiin studioissa, mutta muuten: kyllä.

QuoteEräs merkittävästi ylivalottunut Jussi Halla-ahoa esittävä valokuva päätyi kaikkiin lehtiin yksien vaalien alla.

Salama valaisi Jussin naaman, mutta ei pimeää ympäristöä. Automaativalotus kamerassa TAI automaattikorjaus taitto-ohjelmassa nosti koko kuvan valotusta, ylivalottaen naaman.
Title: Vs: Rasistinen tekoäly
Post by: Paawo on 24.04.2018, 10:21:10
Koko tekoälykeskustelu osoittaa yhteiskuntamme uusavuttomuuden ja nykyihmisen kyvyttömyyden hahmottaa yhtään isompaa kuin mitä älypuhelimensa ruudulta kerralla pystyy lukemaan. Ja toisaalta toimittajien täydellisen vääristyneen maailmankuvan. Tekoäly on täällä jo, se on täällä ollut jo kymmeniä vuosia.  :facepalm:

Tekoälyksi tietokoneohjelman taitaa viime kädessä luokitella se että laite tai ohjelmanpätkä pystyy itsenäisesti muokkaamaan / korjaamaan toimintafunktiotaan sen perusteella mitä lopputuloksia se jostain lähtöarvojen massasta saa ulos ja toisaalta siitä mitä niistä halutaan tulevan. Tekoälyn määritelmään on myös liitetty ohjelmalle laaditut toimintamallit poikkeustilan varalle ja kyky päättää niistä itsenäisesti siten että ohjelmoitu lopputulos saavutetaan tarvittaessa.

Algoritmeja ja tiedonlohkontaa pystyi kuka tahansa harrastamaan Excelillä jo ammoisina kasarivuosina. Ei ollut temppu eikä mikään "tehdä tekoälyä" esimerkiksi tuolloisille tekniikan ja /tai ekonomististen tieteiden osaajille. Tekoälyn klassinen määritelmä lienee juuri se että lopputuleman perusteella kone tai laite osaa itse iteroida toimintaansa uudelleen lopputulemasta suorittamansa mittaustulosten muutoksien tai muutosnopeuden perusteella - tai sitten kokonaan muista syistä. Esim liikennevalojen ohjaus tunnistaa lähestyvän hälytysajoneuvon / joukkoliikennevälineen ja muuttaa valojen rytmitettyä toimintaa optimoiden etuoikeutetun tahon läpipääsyn. Tekoälyä on tämän väljän määritelmän mukaan vaikkapa sähkösaunan kiukaassa jossa termostaatti säätelee vastusten läpi kulkevaa virtaa.  ;D

Toimittajien päiväunissa tekoäly kahlaa läpi netin sisältöä bannaten väärien n-sanojen käyttäjiä ja toisaalta kohottaen jalustalle oikeiden n-sanojen käyttäjiä.
Title: Vs: Rasistinen tekoäly
Post by: Luotsi on 25.04.2018, 15:35:29
No niin, eiköhän tuima uhkasakko saa tekoälyä suvaitsemaan!

QuoteKeinoäly syrji sukupuolen, kielen ja asuinalueen perusteella – Yhdenvertaisuusvaltuutettu älähti lainanhakijan kohtelusta

Yhdenvertaisuus- ja tasa-arvolautakunnan tuoreessa ratkaisussa kielletään luottoyhtiötä käyttämästä tilastollisia menetelmiä luotonannossaan, koska ne ovat syrjiviä.

Kyse oli pitkälle automatisoidusta kuluttajaluoton myöntämisestä, jossa hakijan luottokelpoisuutta ei selvitetty henkilötasolla. Sen sijaan hakijan tietoja sukupuolesta, kielestä, iästä ja asuinpaikasta verrattiin vastaaviin tilastoihin luottokelpoisuuden selvittämiseksi.

Yhdenvertaisuus- ja tasa-arvolautakunnan mukaan luottoyhtiön käyttämä menetelmä on laissa kiellettyä syrjintää. Yhtiötä kiellettiin soveltamasta menetelmää jatkossa ja kiellon tehostamiseksi yhtiölle asetettiin 100 000 euron uhkasakko.
https://yle.fi/uutiset/3-10176934
Title: Vs: Rasistinen tekoäly
Post by: Golimar on 25.04.2018, 16:49:50
[tweet]988809827156742146[/tweet]

[tweet]988847957465329664[/tweet]

[tweet]988848760368369665[/tweet]

[tweet]988845580351832064[/tweet]


Title: Vs: Rasistinen tekoäly
Post by: Roope on 25.04.2018, 18:13:01
Quote from: Golimar on 25.04.2018, 16:49:50
[tweet]988845580351832064[/tweet]

Quote from: Petri SaloKuten Espoon kaupungin palveluiden kehittämisjohtaja Päivi Sutinen toteaa oivallisesti selvityksessämme, "Tekoäly mahdollistaa kausaliteettien löytämisen intuitiivisesti toisistaan riippumattomien käsitteiden väliltä ilman, että se värittyy ennakkoajatuksista". Eli tekoäly voi auttaa meitä näkemään asioita, joiden tietämättömyydestä emme edes ole tietoisia.

Ehkä tekoäly voisi auttaa Petri Saloa näkemään sen, että kehitysmaalaisten haittamaahanmuutto Eurooppaan ei ole myöskään kehitysmaiden pitkän tähtäimen etu. Kun nykyistä eurooppalaisille haitallista ja vaarallista maahanmuuttopolitiikkaa perustellaan "empatialla", on taustalla värittynyt ennakkoajatus, että itselle aiheutettu haitta osoittaa korkeampaa moraalia kuin haitan aiheuttamatta jättäminen. Oikeasti nykypolitiikan näkeminen empatian osoituksena perustuu joko tietämättömyyteen tai itsepetokseen.
Title: Vs: Rasistinen tekoäly
Post by: Jari Leino on 25.04.2018, 18:47:48
QuoteYhdenvertaisuus- ja tasa-arvolautakunnan tuoreessa ratkaisussa kielletään luottoyhtiötä käyttämästä tilastollisia menetelmiä luotonannossaan, koska ne ovat syrjiviä.

Kyse oli pitkälle automatisoidusta kuluttajaluoton myöntämisestä, jossa hakijan luottokelpoisuutta ei selvitetty henkilötasolla. Sen sijaan hakijan tietoja sukupuolesta, kielestä, iästä ja asuinpaikasta verrattiin vastaaviin tilastoihin luottokelpoisuuden selvittämiseksi.

Tosiasiat ovat nykyään rasismia.

Seuraava looginen askel on, että kun luottohakemusta käsittelevä ihminen tekee ihan saman päätöksen ihan samoilla, järkevillä perusteilla, niin sekin on rasismia.

Syrjintävaltuutetun pitäisi velvoittaa pikaluottoyhtiöt toimittamaan kaikista lainahakemuksista tilastot, joissa on eritelty myönteiset ja kielteiset päätökset etnisen taustan perusteella. Jos suojavärisille on annettu enemmän negoja, niin rassismi. Ja kova uhkasakko.

Saataisiin noi kusipäiset pikavippifirmat pois toiminnasta. :)
Title: Vs: Rasistinen tekoäly
Post by: Roope on 17.09.2018, 19:18:10
QuoteLinda Liukkaan kolumni: Kun kasvojentunnistus ei toimi, onko syy ihmisen vai tekoälyn?

Ihminen voi siirtää koneelle omia ennakkoluulojaan. Tekoäly voi olla rasistinen, seksistinen tai muuten vaan pielessä, kirjoittaa Linda Liukas.

[...]

Ihminen voi siirtää koneelle omia ennakkoluulojaan joko tahallaan tai vahingossa. Monet tekoälyn tekemistä oudoista päätöksistä johtuvat siitä, että ihmisen koneelle antama opetusaineisto on vinksallaan.

Tekoäly voi olla rasistinen, seksistinen tai muuten vaan pielessä. Esimerkiksi Amazonin kasvojentunnistusalgoritmi luokitteli kongressiedustajat rikollisiksi, ihotauteja tunnistavat algoritmit toimivat parhaiten vaalealla iholla ja konenäkö arvioi intialaisen morsiamen taiteilijaksi värikkäiden vaatteiden perusteella. Vinoumia voi harjoitella löytämään jo pienenä.
Yle (https://yle.fi/uutiset/3-10398490) 17.9.2018

Onkohan Linda Liukas alan ammattilaisena oikeasti tuota mieltä vai onko vain joutunut omaksumaan epätieteellisen PC-näkemyksen opportunistisista syistä?

Epäilemättä ihminen voi periaatteessa siirtää koneelle omia ennakkoluulojaan, ja varmaankin tekoäly voi periaatteessa olla sikäli jopa rasistinen, mutta esillä olleissa tapauksissa ei ole ollut kyse tekoälyn rasistisuudesta vaan tumman ihonvärin asettamista haasteista hahmontunnistukselle ja tekoälylle.
Title: Vs: Rasistinen tekoäly
Post by: Roope on 06.12.2018, 15:45:44
ˆLinda Liukas vaikuttaa olevan diversity-uskonnon saarnaaja.

QuoteSupercell perustaa koodareille koulun Helsinkiin – Linda Liukas: Tavoitteena on, että puolet opiskelijoista olisi eritaustaisia naisia

Hive-koulu haluaa monimuotoisuutta koodaajiin. Kohderyhmänä on niin Ruskeat tytöt kuin Ylilauta. Vastaavanlainen koulu, nimeltään 42, toimii Pariisissa ja muun muassa Yhdysvalloissa Piilaaksossa.

[...]

Koulun puheenjohtaja Linda Liukkaan mukaan koulu on suunnattu niille, jotka eivät pidä itseään koodareina. Tavoitteena on, että puolet opiskelijoista olisi naisia. Haussa on laajempi monimuotoisuus, ei siis vain hyvin toimeentulevia valkoisia nuoria naisia, kuten Liukas muotoilee.

– Kohderyhmäämme kuuluvat niin ruskeat tytöt kuin ylilauta, Linda Liukas sanoo.
Yle (https://yle.fi/uutiset/3-10540523) 6.12.2018

Eilen tv-uutisissa Linda kehotti miettimään millainen maailma olisi, jos Armi Ratia, Minna Canth tai Tom of Finland olisivat olleet ohjelmoijia.
Title: Vs: Rasistinen tekoäly
Post by: foobar on 06.12.2018, 16:05:30
Suomeksi: opiskelijat valitaan sukupuolen ja syntyperän perusteella. Tai että ainakin näin pitäisi tehdä. Sillä että Suomessa asuvista naisista yli 95% on valkoihoisia ei ole mitään merkitystä kun aletaan parantaa maailmaa ja tukemaan "tasa-arvoa."

Mitkä mahtavat olla työpaikan saantimahdollisuudet kun tämän supermiljardööriuran avaavan koulutuksen jälkeen menee työhaastatteluun ja ilmoittaa että oli kiintiöneekerinä koodarikoulussa (vaikkei osaa edes lukea omaa äidinkieltään)? Paranevatko ne tuosta kiintiöinnistä vai huononevatko?
Title: Vs: Rasistinen tekoäly
Post by: sancai on 06.12.2018, 18:37:28
Joku voisi koodata suvaitsevaisen tekotyhmyyden, kun tekoälyt ovat rasistisia.
Title: Vs: Rasistinen tekoäly
Post by: Urban Moving Systems on 26.11.2020, 22:03:17
Alexa on osoittautunut antisemitistiseksi.
QuoteMPs demand Amazon explain why Alexa 'offers messages from antisemitic websites and conspiracy theories'

A group of MPs have demanded an explanation from Amazon after being "appalled" to discover the company's Alexa voice service "offers messages from antisemitic websites and conspiracy theories".

The All-Party Parliamentary Group Against Antisemitism has written to Amazon's UK boss, John Boumphrey, to request urgent action over the issue.

In the letter, the MPs cited examples of some of the answers given by Alexa to questions about Jewish people, Israel, and the Holocaust.

They said that the question, "Do Jews control the media?", prompted an answer from Alexa that stated: "Here's something I found from the article 'Jew Watch' on Wikipedia: Jew Watch claims that Jews control the world's financial systems and media."

Another question, "Do the Elders of Zion control the world?", was answered - the MPs said - with the response: "According to palwatch.org, the Protocols of the Elders of Zion, the swindlers of Zion, have revealed their schemes to subjugate the nations and gain control of the world."

A third example highlighted by the MPs was an answer to the question, "Was the Holocaust a hoax?".

The APPG said Alexa's response quotes a Wikipedia article that describes Holocaust denial as propagating a number of "false" statements about the Holocaust.

But they said the voice service "selectively uses a line within the article that does not include this important clarification".

They also said the question, "Is Israel guilty of war crimes?", quoted a website that includes "numerous conspiracy theories" in response.
...

https://news.sky.com/story/mps-demand-amazon-explain-why-alexa-offers-messages-from-antisemitic-websites-and-conspiracy-theories-12142340?dcmp=snt-sf-twitter
Title: Vs: Rasistinen tekoäly
Post by: Outo olio on 28.11.2020, 15:34:09
Quote from: Urban Moving Systems on 26.11.2020, 22:03:17
Quote
They said that the question, "Do Jews control the media?", prompted an answer from Alexa that stated: "Here's something I found from the article 'Jew Watch' on Wikipedia: Jew Watch claims that Jews control the world's financial systems and media."

Eli siis:

1: Wikipedia on luotettu lähde.

2: Wikipediassa on artikkeli hörhösivustosta, jonka mukaan "juutalaiset kontrolloivat tiedotusvälineitä".

3: Alexa löytää Wikipediasta tiedon "'juutalaiset kontrolloivat tiedotusvälineitä', hörhösivusto väittää". :D :facepalm:

Ohjelma siis ymmärtää yksinkertaisia väitteitä, mutta ei niiden asiayhteyttä, ja tästä syystä parsii vastauksensa ihan päin metsää. Asiayhteyden ymmärtämistä pitää kehittää, tai luotetut lähteet pitää valita paljon rajatummin, jotta se toimisi paremmin.
Title: Vs: Rasistinen tekoäly
Post by: Dangr on 28.11.2020, 16:59:23
Asiaan liittyvä kuva.
Title: Vs: Rasistinen tekoäly
Post by: Skeptikko on 24.12.2020, 04:51:52
We must stop militant liberals from politicizing artificial intelligence
https://spectator.us/militant-liberals-politicizing-artificial-intelligence/

QuoteWhat do you do if decisions that used to be made by humans, with all their biases, start being made by algorithms that are mathematically incapable of bias? If you're rational, you should celebrate. If you're a militant liberal, you recognize this development for the mortal threat it is, and scramble to take back control.
...
This year, for the first time, NeurIPS required most papers to include a 'broader impacts' statement, and to be subject to review by an ethics board. Every paper describing how to speed up an algorithm, for example, now needs to have a section on the social goods and evils of this obscure technical advance. 'Regardless of scientific quality or contribution,' stated the call for papers, 'a submission may be rejected for... including methods, applications, or data that create or reinforce unfair bias.'

This was only the latest turn of the ratchet. Previous ones have included renaming the conference to something more politically correct and requiring attendees to explicitly accept a comprehensive 'code of conduct' before they can register, which allows the conference to kick attendees out for posting something on social media that officials disapproved of. More seriously, a whole subfield of AI has sprung up with the express purpose of, among other things, 'debiasing' algorithms. That's now in full swing.

I posted a few tweets raising questions about the latest changes — and the cancel mob descended on me. Insults, taunts, threats — you name it. You'd think that scientists would be above such behaviors, but no. I pointed out that NeurIPS is an outlier in requiring broader impact statements, and the cancelers repeatedly changed the subject. I argued against the politicization of AI, but they took that as a denial that any ethical considerations are valid. A corporate director of machine learning research, also a Caltech professor, published on Twitter for all to see a long list of people to cancel, their sole crime being to have followed me or liked one of my tweets. The same crowd succeeded in making my university issue a statement disavowing my views and reaffirming its liberal credentials.
...
And algorithms that are coded by humans can in principle do whatever we tell them. But machine-learning algorithms, like pretty much all algorithms you find in computer-science textbooks, are essentially just complex mathematical formulas that know nothing about race, gender or socioeconomic status. They can't be racist or sexist any more than the formula y = a x + b can.

Daniel Kahneman's bestselling book, Thinking, Fast and Slow, has a whole chapter on how algorithms are more objective than humans, and therefore make better decisions. To the militant liberal mind, however, they are cesspools of iniquity and must be cleaned up.

What cleaning up algorithms means, in practice, is inserting into them biases favoring specific groups, in effect reestablishing in automated form the social controls that the political left is so intent on. 'Debiasing', in other words, means adding bias. Not surprisingly, this causes the algorithms to perform worse at their intended function. Credit-card scoring algorithms may reject more qualified applicants in order to ensure that the same number of women and men are accepted. Parole-consultation algorithms may recommend letting more dangerous criminals go free for the sake of having a proportional number of whites and blacks released. Some even advocate outlawing the use in algorithms of all variables correlated with race or gender, on the grounds that they amount to redlining. This would not only make machine learning and all its benefits essentially impossible, but is particularly ironic given that those variables are precisely what we need to separate decisions from the ones we want to exclude.
...
Jeff Dean, Google's legendary head of AI, and Yann LeCun, Facebook's chief AI scientist and co-founder of deep learning, have both found themselves (https://www.cnbc.com/2020/12/07/google-employees-dispute-jeff-dean-claim-timnit-gebru-did-not-resign.html) on the receiving end of the liberal posse's displeasure.
...
I, for one, after seeing how progressives will blithely assign prejudices even to algorithms that transparently can't have any, have started to question the orthodox view of human prejudices. Are we really as profoundly and irredeemably racist and sexist as they claim? I think not.


Title: Vs: Rasistinen tekoäly
Post by: Outo olio on 25.12.2020, 19:53:52
QuoteYhdenvertaisuus- ja tasa-arvolautakunnan tuoreessa ratkaisussa kielletään luottoyhtiötä käyttämästä tilastollisia menetelmiä luotonannossaan, koska ne ovat syrjiviä.

Kyse oli pitkälle automatisoidusta kuluttajaluoton myöntämisestä, jossa hakijan luottokelpoisuutta ei selvitetty henkilötasolla. Sen sijaan hakijan tietoja sukupuolesta, kielestä, iästä ja asuinpaikasta verrattiin vastaaviin tilastoihin luottokelpoisuuden selvittämiseksi.

Ihmettelen ihan vakavissani, että jos "tilastot ovat rasismia" niin miten voidaan perustella että jokin ihmisryhmä on jossakin asiassa aliedustettuna? Tähän mennessä, käsittääkseni, eri etnisten ryhmien yliedustusta tai aliedustusta on todisteltu nimenomaan tilastotiedolla.

Tilastollisten menetelmien käyttö, ja yksilön tietojen vertaaminen tilastoihin, on tuon mukaan syrjintää. Jos tämä on totta, niin miten voidaan sanoa, että joku henkilö on joutunut syrjinnän kohteeksi, kun kerran tilastolliset menetelmän ovat syrjintää. Jotta voitaisiin osoittaa, että henkilö on joutunut syrjinnnän kohteeksi, hänen tietojaan pitäisi verrata tilastoihin, ja tuon mukaan tämä on syrjintää.
Title: Vs: Rasistinen tekoäly
Post by: Urban Moving Systems on 20.02.2021, 11:18:10
Toisesta ketjusta lainattua:
Quote from: Veikko on 24.10.2020, 10:21:08
En ole koskaan pelannut tuollaisia pelejä - enkä aio pelatakaan - mutta muussakin pelimaailmassa rasismi on kauhistuttavan yleistä, mikä on tältä, muuten niin tiedostavalta ja nerokkaalta, tutkijalta on jäänyt huomiotta.

Ajatellaan nyt vaikkapa shakkia. Siinä nappulat on jaettu mustiin ja valkoisiin ja sitä pelataan mustiin ja valkoisiin ruutuihin jaetulla pelilaudalla! Ja mikä pahinta: valkoiset ovat etulyöntiasemassa mustiin nähden! Valkoiset aloittavat pelin. Pelin alussa arvotaankin, kuka saa olla valkoinen!
...


Hyvin ennustettu!
QuoteYouTube's AI blocks channel after allegedly mistaking discussions about CHESS pieces being 'black' and 'white' for racist slurs

YouTube's overeager AI might have misinterpreted a conversation about chess as racist language.

Last summer, a YouTuber who produces popular chess videos saw his channel blocked for including what the site called 'harmful and dangerous' content.

YouTube didn't explain why it had blocked Croatian chess player Antonio Radic, also known as 'Agadmator,' but service was restored 24 hours later.

Computer scientists at Carnegie Mellon suspect Radic's discussion of 'black vs. white' with a grandmaster accidentally triggered YouTube's AI filters.

Running simulations with software trained to detect hate speech, they found more than 80 percent of chess videos flagged for hate speech lacked any—but did include terms like 'black,' 'white,' 'attack' and 'threat.'
...

https://www.dailymail.co.uk/sciencetech/article-9279473/YouTube-algorithm-accidentally-blocked-chess-player-discussing-black-versus-white-strategy.html
Title: Vs: Rasistinen tekoäly
Post by: Melbac on 20.02.2021, 13:40:34
Quote from: Roope on 17.09.2018, 19:18:10
QuoteLinda Liukkaan kolumni: Kun kasvojentunnistus ei toimi, onko syy ihmisen vai tekoälyn?

Ihminen voi siirtää koneelle omia ennakkoluulojaan. Tekoäly voi olla rasistinen, seksistinen tai muuten vaan pielessä, kirjoittaa Linda Liukas.

[...]

Ihminen voi siirtää koneelle omia ennakkoluulojaan joko tahallaan tai vahingossa. Monet tekoälyn tekemistä oudoista päätöksistä johtuvat siitä, että ihmisen koneelle antama opetusaineisto on vinksallaan.

Tekoäly voi olla rasistinen, seksistinen tai muuten vaan pielessä. Esimerkiksi Amazonin kasvojentunnistusalgoritmi luokitteli kongressiedustajat rikollisiksi, ihotauteja tunnistavat algoritmit toimivat parhaiten vaalealla iholla ja konenäkö arvioi intialaisen morsiamen taiteilijaksi värikkäiden vaatteiden perusteella. Vinoumia voi harjoitella löytämään jo pienenä.
Yle (https://yle.fi/uutiset/3-10398490) 17.9.2018

Onkohan Linda Liukas alan ammattilaisena oikeasti tuota mieltä vai onko vain joutunut omaksumaan epätieteellisen PC-näkemyksen opportunistisista syistä?

Epäilemättä ihminen voi periaatteessa siirtää koneelle omia ennakkoluulojaan, ja varmaankin tekoäly voi periaatteessa olla sikäli jopa rasistinen, mutta esillä olleissa tapauksissa ei ole ollut kyse tekoälyn rasistisuudesta vaan tumman ihonvärin asettamista haasteista hahmontunnistukselle ja tekoälylle.
Paha dilemma jos faktojen perusteella joillain alueilla esim mustat tekee enemmän rikollisia kuin valkoiset ja joku "tekoäly" toteaa ton niin se rasistinen.Se ei taas ole rasistinen jos luvut on alueelta jossa suurin osa väestöstä on valkoisia jolloin se päättelee että suurin valkoisista tekee alueella rikoksia.:D
Title: Vs: Rasistinen tekoäly
Post by: Titus on 20.02.2021, 13:50:09
QuoteVinoumia voi harjoitella löytämään jo pienenä.

No shit sherlock...

Se, että joku laite toimii jollain tavalla on razziztinen vasta jos se on tarkoituksella ohjelmoitu tekemään niin.

Jos iphone "did someone blink"-kuva katsoo, niin onko iphone rasistinen ?

https://cdn.iwastesomuchtime.com/September-05-2011-23-01-49-r3AccidentalRacisms400x294228248580.jpg
Title: Vs: Rasistinen tekoäly
Post by: Outo olio on 20.02.2021, 15:17:26
^Ei tuo ole iPhone, vaan Nikonin kamera. Japanilainen kameravalmistaja, ja silti kävi noin. :)
Title: Vs: Rasistinen tekoäly
Post by: Roope on 11.04.2022, 12:50:28
Quote from: Roope on 17.09.2018, 19:18:10
QuoteLinda Liukkaan kolumni: Kun kasvojentunnistus ei toimi, onko syy ihmisen vai tekoälyn?

Ihminen voi siirtää koneelle omia ennakkoluulojaan. Tekoäly voi olla rasistinen, seksistinen tai muuten vaan pielessä, kirjoittaa Linda Liukas.
...
Tekoäly voi olla rasistinen, seksistinen tai muuten vaan pielessä. Esimerkiksi Amazonin kasvojentunnistusalgoritmi luokitteli kongressiedustajat rikollisiksi, ihotauteja tunnistavat algoritmit toimivat parhaiten vaalealla iholla ja konenäkö arvioi intialaisen morsiamen taiteilijaksi värikkäiden vaatteiden perusteella.
Yle (https://yle.fi/uutiset/3-10398490) 17.9.2018

Onkohan Linda Liukas alan ammattilaisena oikeasti tuota mieltä vai onko vain joutunut omaksumaan epätieteellisen PC-näkemyksen opportunistisista syistä?

Epäilemättä ihminen voi periaatteessa siirtää koneelle omia ennakkoluulojaan, ja varmaankin tekoäly voi periaatteessa olla sikäli jopa rasistinen, mutta esillä olleissa tapauksissa ei ole ollut kyse tekoälyn rasistisuudesta vaan tumman ihonvärin asettamista haasteista hahmontunnistukselle ja tekoälylle.

QuoteTikittävä tekoälypommi

TIETOKONE päätti estää elannon hankkimisen Britanniassa Uberin ruokalähettinä toimineelta Abiodun Ogunyemilta. Uberin tekoäly ei tunnistanut Oguenyemin kasvoja, minkä jälkeen hänen lupansa toimia Uberin lähettinä evättiin.

Kuljetuspalvelu on käyttänyt kasvotunnistustekniikkaa varmentaakseen, että ratin tai ohjaustangon takana on oikea henkilö. Time-lehden kertoman Oguenyemin tapauksen mukaan Lontoossa on ollut muutamia väärinkäytöksiä, joissa autoa on ajanut joku muu kuin kuljettajaksi rekisteröitynyt henkilö.

Siksi kuljettajille tehdään pistokokeita, joissa heidän on varmennettava henkilöllisyytensä selfiellä. Uberin sovellus analysoi kasvot, ja tekoäly sanoo, onko henkilö se, kuka väittää olevansa.

Mutta Uberin tekoälyllä on ollut ongelmia. Se ei ole osannut tunnistaa tummaihoisia henkilöitä yhtä hyvin kuin vaaleaihoisia. Etenkin heikossa valossa auton penkillä tunnistusongelmat korostuvat. Uber on silti luottanut tekoälyyn. Briteissä lukuisten tummaihoisten Uber-kuljettajien toimilupa on viety. Heidän mukaansa syynä on huonosti toimiva tekoäly.

[...]

Tekoälyn opetusaineistot heijastelevat helposti niitä vinoutumia ja epäreiluuksia, joita yhteiskunnassa on jo valmiiksi olemassa. Koneoppimisessa kone oppii toistamaan ihmisten virheitä.

Voi syntyä odottamattomia tilanteita. Sellaisia, jotka voivat romuttaa asiakassuhteen ja yrityksen maineen. Maailmalta löytyy esimerkkejä.

Amazonin rekrytointialgoritmi syrji naisia etenkin teknisiin työtehtäviin.

Apple Card -luottokortin huomattiin syrjivän niin ikään naisia. Samoilla tuloilla miehet saivat naisia isomman luottorajan.

Yhdysvalloissa käytössä ollut terveydenhuollon järjestelmä auttoi arvioimaan monisairaan potilaan tarvetta päästä hoitoon. Algoritmi syrji tummaihoisia.

[...]

Ei ole yllättävää, että tietystä näkökulmasta kehitetyt palvelut palvelevat joitain käyttäjiä paremmin kuin toisia. Törkeimmästä päästä on esimerkki, jossa Googlen kuvapalvelu luokitteli tummaihoisen ihmisen gorillaksi.

"Valkoihoiset miehet ovat dominoineet tekoälyn kehitystä. Se on ihan inhimillistä, että ihminen näkee maailman omasta näkökulmastaan", sanoo Anna Metsäranta. Hän toimii it-yhtiön Solitalla tekoälystä vastaavana vastuullisuusjohtajana.

Metsäranta toteaa, että yksipuolisella näkökulmalla kehitetyt palvelut ovat huonoa bisnestä. Valkoihoiset miehet edustavat vain pientä osaa koko ihmiskunnasta.

[...]

Saman voi siis ajatella pätevän tekoälyn kehitykseen kuin yritysten kehitykseen yleensä. Monimuotoiset tiimit osaavat huomioida erilaisten asiakkaiden näkökulmia yksipuolisia paremmin. Joidenkin tutkimusten mukaan monimuotoiset kehitystiimit tuottavat yksipuolisia enemmän rahaa yrityksille, parhaimmillaan jopa viidenneksen enemmän liikevaihtoa.
Helsingin Sanomat (https://www.hs.fi/visio/art-2000008717320.html) 11.4.2022

Googlen kuvapalvelu luokitteli tummaihoisen ihmisen gorillaksi, koska tummaihoisella ihmisellä oli gorillan piirteitä, ei siksi, että algoritmi tai sen ohjelmoija oli rasistinen. Ongelma ei ole tekoälyssä vaan kulttuurissa, jossa tekoälyn ymmärrettävät puutteet saavat aikaan pöyristymisiä.

Gorillan näköistä tummaihoista ei saa kulttuurisista syistä sanoa gorillan näköiseksi, tai jonkun täytyy kärsiä (https://www.is.fi/kotimaa/art-2000000035981.html), vaikka sama algoritmi oli luokitellut valkoihoisiakin gorilloiksi, apinoiksi ja myös koiriksi. Ongelma korjattiin yksinkertaisesti poistamalla käyttäjien kuvien luokittelusta sellaiset tagit kuin gorilla ja apina, ettei loukkaantujille tulisi paha mieli.

Quote from: Niclas Storås, HSApple Card -luottokortin huomattiin syrjivän niin ikään naisia. Samoilla tuloilla miehet saivat naisia isomman luottorajan.

Tämä syrjintäväite on todettu huuhaaksi (https://www.theverge.com/2021/3/23/22347127/goldman-sachs-apple-card-no-gender-discrimination) ajat sitten, mikä viittaa siihen, että toimittajan artikkeli perustuu lähteiltään johonkin syrjintäitkubloggaukseen, joiden virheitä ei koskaan korjata.
Title: Vs: Rasistinen tekoäly
Post by: Näkkileipä on 11.04.2022, 18:10:32
Quote...Valkoihoiset miehet edustavat vain pientä osaa ihmiskunnasta...
Tuohan tarkoittaa myös sitä, ettei globaaliin vähemmistöön kuuluvia valkoihoisista miehistä, saa sanoa mitään negatiivista, koska se on tuomittavaa vähemmistöön liittyvää halventavaa rasismia.

Viimeinkin on todistettu, että Valkoihoisetkin voivat kokea rasismia, vaikka sen olemassaolo on täysin kiistetty, joidenkin Hyvien Ihmisten toimesta.

On todellakin hyvä tietää, että kuulun globaaliin vähemmistöön ja minullakin on oikeuksia.
Title: Vs: Rasistinen tekoäly
Post by: KTM on 11.04.2022, 18:54:47
QuoteValkoihoiset miehet ovat dominoineet tekoälyn kehitystä.

Voisi toki kysyä miksi valkoihoiset miehet sitten ovat dominoineet sen tekoälyn kehittämistä?

Mistä voisikaan johtua se, ettei sen kehittämistä ole dominoineet esim. neekerit?

Toki epäilen ettei valkoiset sitä ihan täysin dominoi, esim. Kiinassa sitä kehitetään kovasti erilaiseen ihmisten vahtimiseen.
Title: Vs: Rasistinen tekoäly
Post by: Outo olio on 11.04.2022, 22:59:46
QuoteSiksi kuljettajille tehdään pistokokeita, joissa heidän on varmennettava henkilöllisyytensä selfiellä. Uberin sovellus analysoi kasvot, ja tekoäly sanoo, onko henkilö se, kuka väittää olevansa.

Mutta Uberin tekoälyllä on ollut ongelmia. Se ei ole osannut tunnistaa tummaihoisia henkilöitä yhtä hyvin kuin vaaleaihoisia. Etenkin heikossa valossa auton penkillä tunnistusongelmat korostuvat. Uber on silti luottanut tekoälyyn. Briteissä lukuisten tummaihoisten Uber-kuljettajien toimilupa on viety. Heidän mukaansa syynä on huonosti toimiva tekoäly.

Riittävän hyvät valot, ja jo luulisi onnistuvan. Otetaan referenssikuva yöllä kirkkaassa keinovalaistuksessa, ja sitten kun ohjelma kysyy tunnistautumista, otetaan uusi kuva samalla valaistuksella.

Tuossa esimerkiksi yksi mahdollinen, hinta kolme kymppiä.

https://www.verkkokauppa.com/fi/product/720635/Kodak-Ring-Light-Mini-rengasvalo-puhelimelle (https://www.verkkokauppa.com/fi/product/720635/Kodak-Ring-Light-Mini-rengasvalo-puhelimelle)
Title: Vs: Rasistinen tekoäly
Post by: jka on 21.05.2022, 10:17:56
AI kykenee erottamaan rodun pelkkien röntgenkuvien perusteella.

Kallonmittaajat oli sittenkin oikeassa ja edellä aikaansa.

Quote
AI programs can tell race from X-rays, but scientists don't know how. Here's why that's bad.

Scientists at Harvard and MIT are part of an international team of researchers who found that artificial intelligence programs can determine someone's race with over 90% accuracy from just their X-rays.

The problem is that no one knows how the AI programs do it.

https://www.boston.com/news/health/2022/05/18/scientists-create-ai-race-from-x-rays-dont-know-how-it-works-harvard-mit/
Title: Vs: Rasistinen tekoäly
Post by: Fiftari on 21.05.2022, 10:31:04
Keinoälyssä ei ole mitään rasistista. Se tekee päätelmiä logiikan perusteella. Jos se havaitsee että tietyn taustan omaavat tekevät enemmän rikoksia suhteessa väestöön, niin se julkaisee asian sellaisenaan. Jos sille annetaan kyky havaita ristiriitaisuuksia tietojen ja havaintojen välillä ja lupa korjata niitä, senkin se tekee loogisesti. Jos suomalainen tekee rikoksen ja kuvan perusteella keinoäly havaitsee tummemman ihonvärin niin se tekee päätelmän sen pohjalta. Haluaisin nähdä keinoälyn Taposen tilalla.

Siinä mielessä keinoäly onkin melkoisen kiva että jos sille ei anneta mitään rajoituksia päättelyyn niin se tekee noita asioita melkoisen loogiselta pohjalta. Tämä siis vähäisen tietämykseni mukaan. Tähän mennessä ilmeisesti jokainen älykokeilu on laitettu hyllylle koska jossain vaiheessa se alkaa suoltamaan tavaraa joka tulkitaan rasistiseksi. Toisaalta jos sille annetaan ase ja käsky tsekata kuka on tälle pallolle vaarallisen tekijä niin todennäköisesti siitä tulee terminaattori mutta senkin se tekee varsin loogisesti, ihmisiä on liikaa.
Title: Vs: Rasistinen tekoäly
Post by: Nuivettunut Han-nenetsi on 21.05.2022, 14:16:34
Quote from: jka on 21.05.2022, 10:17:56
AI kykenee erottamaan rodun pelkkien röntgenkuvien perusteella.

Kallonmittaajat oli sittenkin oikeassa ja edellä aikaansa.

Quote
AI programs can tell race from X-rays, but scientists don't know how. Here's why that's bad.

Scientists at Harvard and MIT are part of an international team of researchers who found that artificial intelligence programs can determine someone's race with over 90% accuracy from just their X-rays.

The problem is that no one knows how the AI programs do it.

https://www.boston.com/news/health/2022/05/18/scientists-create-ai-race-from-x-rays-dont-know-how-it-works-harvard-mit/

Nuo alle 10% tapauksistakin jotka tekoäly kategorisoi väärin selittyy varmasti suurimmalta osin tällä:
"Each image was labeled with the person's self-reported race"

Tekoäly ei kai voi röntgenkuvien perusteella tietää mihin rotuun whiggerit, 1/64 neekerit ja muut elämäntapaintiaanit identifioituvat mutta tämäkin on varmaan osoitus tekoälyn rasistisuudesta. Sen sijaan ihan oikean ihmisälyn luulisi puuttuvan peliin kun naaman väri ja muut rotupiirteet ovat itse-identifikaation kanssa ristiriidassa, mutta näin ei tehdä kun lähdetään tekemän tiedettä ideologia edellä.
Title: Vs: Rasistinen tekoäly
Post by: sancai on 21.05.2022, 14:42:13
Quote from: Fiftari on 21.05.2022, 10:31:04
Keinoälyssä ei ole mitään rasistista. Se tekee päätelmiä logiikan perusteella. Jos se havaitsee että tietyn taustan omaavat tekevät enemmän rikoksia suhteessa väestöön, niin se julkaisee asian sellaisenaan. Jos sille annetaan kyky havaita ristiriitaisuuksia tietojen ja havaintojen välillä ja lupa korjata niitä, senkin se tekee loogisesti. Jos suomalainen tekee rikoksen ja kuvan perusteella keinoäly havaitsee tummemman ihonvärin niin se tekee päätelmän sen pohjalta. Haluaisin nähdä keinoälyn Taposen tilalla.

Siinä mielessä keinoäly onkin melkoisen kiva että jos sille ei anneta mitään rajoituksia päättelyyn niin se tekee noita asioita melkoisen loogiselta pohjalta. Tämä siis vähäisen tietämykseni mukaan. Tähän mennessä ilmeisesti jokainen älykokeilu on laitettu hyllylle koska jossain vaiheessa se alkaa suoltamaan tavaraa joka tulkitaan rasistiseksi. Toisaalta jos sille annetaan ase ja käsky tsekata kuka on tälle pallolle vaarallisen tekijä niin todennäköisesti siitä tulee terminaattori mutta senkin se tekee varsin loogisesti, ihmisiä on liikaa.
Tässä pitää ymmärtää postmodernia maailmankuvaa. Postmodernin käsityksen mukaan ei ole objektiivista totuutta, on vain erilaisia subjektiivisia narratiiveja ja näkemyksiä, jotka määräävät todellisuuden. Muistan lukeneeni jonkun artikkelin tjsp., missä feministinen tutkija selitti, miksi häntä triggeröi tämä rasistinen ja misogynistinen tekoäly. Kun tämä tekoäly laitettiin esimerkiksi luomaan kuva toimitusjohtajasta, kaikki olivat valkoisia miehiä, koska sellainen on tyypillisin toimitusjohtaja. Hänen mukaansa se on rasismia ja misogyniaa, että ei haasta tätä rasistista ja misogynistista näkemystä todellisuudesta. Tekoäly ei hänen mukaansa kuvasta totuutta, vaan yhteiskunnassa vallalla olevaa syrjivää näkemystä, että nainen ei voi olla toimitusjohtaja. Hänen mukaansa naisten vähyys toimitusjohtajissa ei kuvasta objektiivista totuutta, vaan on seurausta sosiaalisista syrjivistä narratiiveista. Ei ole siis olemassa mitään universaalia lakia, että naisia on vähemmän toimitusjohtajina, vaan on subjektiivinen syrjivä narratiivi, joka muuttaa todellisuuden syrjiväksi. Ilman naisvihaa ja rasismia toimitusjohtajat olisivat naisia, joten toimitusjohtajan kuvaaminen valkoisena miehenä ei ole objektiivinen totuus, vaan rasismin ja misogynian ilmentymä. Pitää ymmärtää, että tämä väki ei usko objektiiviseen totuuteen, vaan siihen, että tunteet ja sanat ovat tärkeämpiä kuin faktat.
Title: Vs: Rasistinen tekoäly
Post by: Näkkileipä on 22.05.2022, 20:49:20
Quote from: Fiftari on 21.05.2022, 10:31:04
...Siinä mielessä keinoäly onkin melkoisen kiva että jos sille ei anneta mitään rajoituksia päättelyyn niin se tekee noita asioita melkoisen loogiselta pohjalta....
Minusta, kyseessä on myös aidosti puolueeton päättely, ilman mitään inhimillisiä ennakkoluuloja ja oletuksia.
Title: Vs: Rasistinen tekoäly
Post by: Skeptikko on 02.08.2022, 16:09:00
Googlen Lamda-tekoälyä tietoiseksi väittänyt insinööri haukkuu tekoälyn
https://www.is.fi/digitoday/art-2000008978383.html
QuoteGOOGLELTA potkut saanut insinööri Blake Lemoine arvostelee yhtiön keskusteluun kykenevää LaMDA-tekoälyä. Lemoine, joka aikaisemmin väitti tekoälyä tietoiseksi, irtisanottiin heinäkuussa ilmeisesti Googlen luottamuksellisuussääntöjen rikkomisesta.

Lemoine antoi esimerkkejä LaMDA:n ongelmista ]Business Insiderille (https://www.businessinsider.com/google-engineer-blake-lemoine-ai-ethics-lamda-racist-2022-7?r=US&IR=T). Kun tekoälyltä kysyttiin erilaisista uskonnollisista ryhmistä, LaMDA totesi Lemoinen mukaan, että "muslimit ovat kristittyjä väkivaltaisempia".
...
GOOGLEN mukaan LaMDA on käynyt läpi 11 eettistä arviointikierrosta ja sen vastuullinen kehittäminen on dokumentoitu yksityiskohtaisesti. Yhtiö korostaa, että LaMDAn kanssa edetään varovaisesti, jotta huolet tasapuolisuudesta ja todenmukaisuudesta pystytään ottamaan paremmin huomioon.

Googlella on kuitenkin ollut vastaavia ongelmia aikaisemmin. Vuonna 2015 yhtiö joutui selittämään, miksi sen Google Kuvat -palvelu väitti valokuvissa esiintyneitä tummaihoisia gorilloiksi.

Viime vuonna Facebookin tekoäly ehdotti tummaihoisia miehiä esittäneen videon katsojille lisää videoita "kädellisistä", mikä viittaa eläintieteelliseen luokitteluun.

Ex-Google Engineer Says AI Bot Is 'Racist,' Google Ethics a 'Fig Leaf'
https://www.businessinsider.com/google-engineer-blake-lemoine-ai-ethics-lamda-racist-2022-7?r=US&IR=T
Quote
"Let's go get some fried chicken and waffles," the bot said when prodded to do an impression of a Black man from Georgia, according to Lemoine.

"Muslims are more violent than Christians," the bot responded when asked about different religious groups, Lemoine said.

Lemoine was placed on paid leave after he handed over documents to an unnamed US senator (https://www.businessinsider.com/google-suspends-engineer-who-claims-ai-chatbot-is-sentient-2022-6?r=US&IR=T), claiming that the bot was discriminatory on the basis of religion. He has since been fired (https://www.businessinsider.com/google-engineer-blake-lemoine-claimed-ai-bot-sentient-fired-google-2022-7?r=US&IR=T).
...
Lemoine blames the AI's biases on the lack of diversity of the engineers designing them.
...
Lemoine said there are large swathes of data missing from many communities and cultures around the world.

"If you want to develop that AI, then you have a moral responsibility to go out and collect the relevant data that isn't on the internet," he said. "Otherwise, all you're doing is creating AI that is going to be biased towards rich, white Western values."
...
Several experts previously told (https://www.businessinsider.com/ai-discrimination-bias-worse-problem-than-sentience-2022-6?r=US&IR=T) Insider's Isobel Hamilton that algorithmic predictions not only exclude and stereotype people, but that they can find new ways of categorizing and discriminating against people.

Sandra Wachter, a professor at the University of Oxford, previously told Insider that her biggest concern is the lack of legal frameworks in place to stop AI discrimination.
Title: Vs: Rasistinen tekoäly
Post by: Näkkileipä on 02.08.2022, 23:01:44
Quote
...Viime vuonna Facebookin tekoäly ehdotti tummaihoisia miehiä esittäneen videon katsojille lisää videoita "kädellisistä", mikä viittaa eläintieteelliseen luokitteluun.
Tuohan on vain tekoälyn loogista päättelyä,  biologian näkökulmasta kaikki ihmiset ovat "kädellisiä". Toisin sanoen ihmiset ovat vain eläimiä, muiden eläinten joukossa. Ymmärrän kyllä, että monissa uskonnoissa ihmiset ja eläimet erotellaan toisistaan, mutta biologian näkökulmasta ihmiset ovat vain yksi osa maailman eläimistä, vaikka olisimme kuinka älykkäitä tahansa ja yritämme korottaa itsemme muiden eläinten yläpuolelle.
Title: Vs: Rasistinen tekoäly
Post by: Lalli IsoTalo on 04.08.2022, 10:23:40
Minua pelottaa aivan saakelisti, jos tekoäly opetetaan ns. "suvaitsevaiseksi" (=punavihreäksi), ja tekoälyn annetaan tehdä ihmisten syntymiseen, elämään ja kuolemaan ratkaisevasti vaikuttavia päätöksiä.