News:

Mikäli foorumi ei jostain syystä vastaa, paras paikka löytää ajantasaista tietoa on Facebookin Hommasivu,
https://www.facebook.com/Hommaforum/
Sivun lukeminen on mahdollista myös ilman FB-tiliä.

Main Menu

Rasistinen tekoäly

Started by Tomatoface, 20.04.2018, 23:03:32

Previous topic - Next topic

KTM

QuoteValkoihoiset miehet ovat dominoineet tekoälyn kehitystä.

Voisi toki kysyä miksi valkoihoiset miehet sitten ovat dominoineet sen tekoälyn kehittämistä?

Mistä voisikaan johtua se, ettei sen kehittämistä ole dominoineet esim. neekerit?

Toki epäilen ettei valkoiset sitä ihan täysin dominoi, esim. Kiinassa sitä kehitetään kovasti erilaiseen ihmisten vahtimiseen.

Outo olio

QuoteSiksi kuljettajille tehdään pistokokeita, joissa heidän on varmennettava henkilöllisyytensä selfiellä. Uberin sovellus analysoi kasvot, ja tekoäly sanoo, onko henkilö se, kuka väittää olevansa.

Mutta Uberin tekoälyllä on ollut ongelmia. Se ei ole osannut tunnistaa tummaihoisia henkilöitä yhtä hyvin kuin vaaleaihoisia. Etenkin heikossa valossa auton penkillä tunnistusongelmat korostuvat. Uber on silti luottanut tekoälyyn. Briteissä lukuisten tummaihoisten Uber-kuljettajien toimilupa on viety. Heidän mukaansa syynä on huonosti toimiva tekoäly.

Riittävän hyvät valot, ja jo luulisi onnistuvan. Otetaan referenssikuva yöllä kirkkaassa keinovalaistuksessa, ja sitten kun ohjelma kysyy tunnistautumista, otetaan uusi kuva samalla valaistuksella.

Tuossa esimerkiksi yksi mahdollinen, hinta kolme kymppiä.

https://www.verkkokauppa.com/fi/product/720635/Kodak-Ring-Light-Mini-rengasvalo-puhelimelle
Suvaitsevaisen ajattelun yhteenveto: Suomessa Suomen kansalaiset rikkovat Suomen lakeja. Myös muiden maiden kansalaisten on päästävä Suomeen rikkomaan Suomen lakeja. Tämä on ihmisoikeuskysymys.

Joku ostaa ässäarvan, toinen taas uhrivauvan. Kaikki erilaisia, kaikki samanarvoisia.

Can I have a safe space, too?

jka

AI kykenee erottamaan rodun pelkkien röntgenkuvien perusteella.

Kallonmittaajat oli sittenkin oikeassa ja edellä aikaansa.

Quote
AI programs can tell race from X-rays, but scientists don't know how. Here's why that's bad.

Scientists at Harvard and MIT are part of an international team of researchers who found that artificial intelligence programs can determine someone's race with over 90% accuracy from just their X-rays.

The problem is that no one knows how the AI programs do it.

https://www.boston.com/news/health/2022/05/18/scientists-create-ai-race-from-x-rays-dont-know-how-it-works-harvard-mit/

Fiftari

Keinoälyssä ei ole mitään rasistista. Se tekee päätelmiä logiikan perusteella. Jos se havaitsee että tietyn taustan omaavat tekevät enemmän rikoksia suhteessa väestöön, niin se julkaisee asian sellaisenaan. Jos sille annetaan kyky havaita ristiriitaisuuksia tietojen ja havaintojen välillä ja lupa korjata niitä, senkin se tekee loogisesti. Jos suomalainen tekee rikoksen ja kuvan perusteella keinoäly havaitsee tummemman ihonvärin niin se tekee päätelmän sen pohjalta. Haluaisin nähdä keinoälyn Taposen tilalla.

Siinä mielessä keinoäly onkin melkoisen kiva että jos sille ei anneta mitään rajoituksia päättelyyn niin se tekee noita asioita melkoisen loogiselta pohjalta. Tämä siis vähäisen tietämykseni mukaan. Tähän mennessä ilmeisesti jokainen älykokeilu on laitettu hyllylle koska jossain vaiheessa se alkaa suoltamaan tavaraa joka tulkitaan rasistiseksi. Toisaalta jos sille annetaan ase ja käsky tsekata kuka on tälle pallolle vaarallisen tekijä niin todennäköisesti siitä tulee terminaattori mutta senkin se tekee varsin loogisesti, ihmisiä on liikaa.
Ylivertaisuusvinouma on kognitiivinen vinouma, jossa yksilö yliarvioi itsensä jossakin suhteessa kuten vaikkapa jonkin taidon hallinnassa. Lisäksi tyypillisesti mitä huonompi yksilö on kyseisessä taidossa sitä enemmän hän yliarvioi osaamistaan.

Nuivettunut Han-nenetsi

Quote from: jka on 21.05.2022, 10:17:56
AI kykenee erottamaan rodun pelkkien röntgenkuvien perusteella.

Kallonmittaajat oli sittenkin oikeassa ja edellä aikaansa.

Quote
AI programs can tell race from X-rays, but scientists don't know how. Here's why that's bad.

Scientists at Harvard and MIT are part of an international team of researchers who found that artificial intelligence programs can determine someone's race with over 90% accuracy from just their X-rays.

The problem is that no one knows how the AI programs do it.

https://www.boston.com/news/health/2022/05/18/scientists-create-ai-race-from-x-rays-dont-know-how-it-works-harvard-mit/

Nuo alle 10% tapauksistakin jotka tekoäly kategorisoi väärin selittyy varmasti suurimmalta osin tällä:
"Each image was labeled with the person's self-reported race"

Tekoäly ei kai voi röntgenkuvien perusteella tietää mihin rotuun whiggerit, 1/64 neekerit ja muut elämäntapaintiaanit identifioituvat mutta tämäkin on varmaan osoitus tekoälyn rasistisuudesta. Sen sijaan ihan oikean ihmisälyn luulisi puuttuvan peliin kun naaman väri ja muut rotupiirteet ovat itse-identifikaation kanssa ristiriidassa, mutta näin ei tehdä kun lähdetään tekemän tiedettä ideologia edellä.
Toksinen soijamaskuliini

sancai

#65
Quote from: Fiftari on 21.05.2022, 10:31:04
Keinoälyssä ei ole mitään rasistista. Se tekee päätelmiä logiikan perusteella. Jos se havaitsee että tietyn taustan omaavat tekevät enemmän rikoksia suhteessa väestöön, niin se julkaisee asian sellaisenaan. Jos sille annetaan kyky havaita ristiriitaisuuksia tietojen ja havaintojen välillä ja lupa korjata niitä, senkin se tekee loogisesti. Jos suomalainen tekee rikoksen ja kuvan perusteella keinoäly havaitsee tummemman ihonvärin niin se tekee päätelmän sen pohjalta. Haluaisin nähdä keinoälyn Taposen tilalla.

Siinä mielessä keinoäly onkin melkoisen kiva että jos sille ei anneta mitään rajoituksia päättelyyn niin se tekee noita asioita melkoisen loogiselta pohjalta. Tämä siis vähäisen tietämykseni mukaan. Tähän mennessä ilmeisesti jokainen älykokeilu on laitettu hyllylle koska jossain vaiheessa se alkaa suoltamaan tavaraa joka tulkitaan rasistiseksi. Toisaalta jos sille annetaan ase ja käsky tsekata kuka on tälle pallolle vaarallisen tekijä niin todennäköisesti siitä tulee terminaattori mutta senkin se tekee varsin loogisesti, ihmisiä on liikaa.
Tässä pitää ymmärtää postmodernia maailmankuvaa. Postmodernin käsityksen mukaan ei ole objektiivista totuutta, on vain erilaisia subjektiivisia narratiiveja ja näkemyksiä, jotka määräävät todellisuuden. Muistan lukeneeni jonkun artikkelin tjsp., missä feministinen tutkija selitti, miksi häntä triggeröi tämä rasistinen ja misogynistinen tekoäly. Kun tämä tekoäly laitettiin esimerkiksi luomaan kuva toimitusjohtajasta, kaikki olivat valkoisia miehiä, koska sellainen on tyypillisin toimitusjohtaja. Hänen mukaansa se on rasismia ja misogyniaa, että ei haasta tätä rasistista ja misogynistista näkemystä todellisuudesta. Tekoäly ei hänen mukaansa kuvasta totuutta, vaan yhteiskunnassa vallalla olevaa syrjivää näkemystä, että nainen ei voi olla toimitusjohtaja. Hänen mukaansa naisten vähyys toimitusjohtajissa ei kuvasta objektiivista totuutta, vaan on seurausta sosiaalisista syrjivistä narratiiveista. Ei ole siis olemassa mitään universaalia lakia, että naisia on vähemmän toimitusjohtajina, vaan on subjektiivinen syrjivä narratiivi, joka muuttaa todellisuuden syrjiväksi. Ilman naisvihaa ja rasismia toimitusjohtajat olisivat naisia, joten toimitusjohtajan kuvaaminen valkoisena miehenä ei ole objektiivinen totuus, vaan rasismin ja misogynian ilmentymä. Pitää ymmärtää, että tämä väki ei usko objektiiviseen totuuteen, vaan siihen, että tunteet ja sanat ovat tärkeämpiä kuin faktat.

Näkkileipä

Quote from: Fiftari on 21.05.2022, 10:31:04
...Siinä mielessä keinoäly onkin melkoisen kiva että jos sille ei anneta mitään rajoituksia päättelyyn niin se tekee noita asioita melkoisen loogiselta pohjalta....
Minusta, kyseessä on myös aidosti puolueeton päättely, ilman mitään inhimillisiä ennakkoluuloja ja oletuksia.

Skeptikko

#67
Googlen Lamda-tekoälyä tietoiseksi väittänyt insinööri haukkuu tekoälyn
https://www.is.fi/digitoday/art-2000008978383.html
QuoteGOOGLELTA potkut saanut insinööri Blake Lemoine arvostelee yhtiön keskusteluun kykenevää LaMDA-tekoälyä. Lemoine, joka aikaisemmin väitti tekoälyä tietoiseksi, irtisanottiin heinäkuussa ilmeisesti Googlen luottamuksellisuussääntöjen rikkomisesta.

Lemoine antoi esimerkkejä LaMDA:n ongelmista ]Business Insiderille. Kun tekoälyltä kysyttiin erilaisista uskonnollisista ryhmistä, LaMDA totesi Lemoinen mukaan, että "muslimit ovat kristittyjä väkivaltaisempia".
...
GOOGLEN mukaan LaMDA on käynyt läpi 11 eettistä arviointikierrosta ja sen vastuullinen kehittäminen on dokumentoitu yksityiskohtaisesti. Yhtiö korostaa, että LaMDAn kanssa edetään varovaisesti, jotta huolet tasapuolisuudesta ja todenmukaisuudesta pystytään ottamaan paremmin huomioon.

Googlella on kuitenkin ollut vastaavia ongelmia aikaisemmin. Vuonna 2015 yhtiö joutui selittämään, miksi sen Google Kuvat -palvelu väitti valokuvissa esiintyneitä tummaihoisia gorilloiksi.

Viime vuonna Facebookin tekoäly ehdotti tummaihoisia miehiä esittäneen videon katsojille lisää videoita "kädellisistä", mikä viittaa eläintieteelliseen luokitteluun.

Ex-Google Engineer Says AI Bot Is 'Racist,' Google Ethics a 'Fig Leaf'
https://www.businessinsider.com/google-engineer-blake-lemoine-ai-ethics-lamda-racist-2022-7?r=US&IR=T
Quote
"Let's go get some fried chicken and waffles," the bot said when prodded to do an impression of a Black man from Georgia, according to Lemoine.

"Muslims are more violent than Christians," the bot responded when asked about different religious groups, Lemoine said.

Lemoine was placed on paid leave after he handed over documents to an unnamed US senator, claiming that the bot was discriminatory on the basis of religion. He has since been fired.
...
Lemoine blames the AI's biases on the lack of diversity of the engineers designing them.
...
Lemoine said there are large swathes of data missing from many communities and cultures around the world.

"If you want to develop that AI, then you have a moral responsibility to go out and collect the relevant data that isn't on the internet," he said. "Otherwise, all you're doing is creating AI that is going to be biased towards rich, white Western values."
...
Several experts previously told Insider's Isobel Hamilton that algorithmic predictions not only exclude and stereotype people, but that they can find new ways of categorizing and discriminating against people.

Sandra Wachter, a professor at the University of Oxford, previously told Insider that her biggest concern is the lack of legal frameworks in place to stop AI discrimination.
En homona toivota tervetulleiksi Suomeen henkilöitä, jotka haluavat tappaa minut:
http://www.bbc.com/news/magazine-33565055

Tanskan pakolaisapu: hallitsematon tulijatulva johtamassa armageddoniin ja yhteiskuntamme tuhoon:
http://jyllands-posten.dk/international/europa/ECE7963933/Sammenbrud-truer-flygtningesystem/

Näkkileipä

Quote
...Viime vuonna Facebookin tekoäly ehdotti tummaihoisia miehiä esittäneen videon katsojille lisää videoita "kädellisistä", mikä viittaa eläintieteelliseen luokitteluun.
Tuohan on vain tekoälyn loogista päättelyä,  biologian näkökulmasta kaikki ihmiset ovat "kädellisiä". Toisin sanoen ihmiset ovat vain eläimiä, muiden eläinten joukossa. Ymmärrän kyllä, että monissa uskonnoissa ihmiset ja eläimet erotellaan toisistaan, mutta biologian näkökulmasta ihmiset ovat vain yksi osa maailman eläimistä, vaikka olisimme kuinka älykkäitä tahansa ja yritämme korottaa itsemme muiden eläinten yläpuolelle.

Lalli IsoTalo

Minua pelottaa aivan saakelisti, jos tekoäly opetetaan ns. "suvaitsevaiseksi" (=punavihreäksi), ja tekoälyn annetaan tehdä ihmisten syntymiseen, elämään ja kuolemaan ratkaisevasti vaikuttavia päätöksiä.
— Monikulttuuri = Kulttuurien sota
— Pakkomamutus = Kansanmurha
— Valtionvelka = Lapsen velkaorjuus
— Ei omaisuutta = Systeemin orja
— Digital ID = Systeemin orja
— Vihreä siirtymä = Kallis luontotuho
— Hiilineutraalius = VHM:n kuristus
— DEI, woke, SDP = Tasa-arvon tuho
— Valkoinen =  Rotusyyllinen
— Missä N, siellä R