Hitler-imádó szexmániákussá változott a cuki robotlány

A témát ebben részben 'Hírek!' david9696 hozta létre. Ekkor: 2016. március 25..

  1. david9696 / Moderator Vezetőségi tag

    Csatlakozott:
    2014. július 12.
    Hozzászólások:
    14,623
    Kapott lájkok:
    284
    Beküldött adatlapok:
    0
    Nem:
    Férfi
    Mondhatni, kissé mellément a Microsoft kísérlete, melynek célja az volt, hogy egy 16 éves lánynak megfelelő mesterséges intelligencia kommunikáljon az őt Twitteren megszólító emberekkel. Mindössze egyetlen nap kellett ahhoz, hogy a Tay nevű chatrobot egy szlenget használó, vicceket mesélő, és néha gifeket küldő tinédzser csajsziból a zsidókat gyűlölő, Hitlert éltető szexi döggé váljék. Gyorsan le is kapcsolták.
    Pedig épp csak elkezdődött a virtuális élete, el is kezdtük írni a cikket a mesterséges kislány első, ártatlan napjáról. Ilyesmik voltak benne:

    Akinek éppen akad néhány szabad perce, és sem cicás YouTube videóval, sem békés Angry Birds-özéssel nem kívánja elütni, annak a Microsoft tartogat egy kiváló beszélgetőpartnert, aki bár eléggé élettelen, de mégis szórakoztató, és simán vágja a szlenget is.
    A Microsoft Technology and Research, valamint a Bing üres óráikban összedobtak egy jópofa chatrobotot, amit a Tay névre kereszteltek és nagyjából egy 16 éves lánynak felel meg, vagy legalábbis annak próbálja kiadni magát. Első látásra egyébként nem is nehéz neki elhinni, hiszen úgy pörgeti az ezredfordulós szlenget, mintha élő ember ülne a túloldalt, sőt, ha olyanja van, akár még valami gifet is képes küldeni. A koncepció szerint a virtuális élőlény egy olyan 16 éves lány szintjén áll, aki képben van a szlenget illetően, tudja, hogy ki az a Taylor Swift, Miley Cyrus, illetve Kanye West, ismeri a netes divatot, a mémeket és a gifeket, szóval az összkép egy laza, korának megfelelően viselkedő fiatal, csak éppen nem igazi ember.

    A mesterséges intelligenciát létrehozó fejlesztők eredeti elképzelése az volt, hogy Tay az emberekkel folytatott kommunikáció során úgy fejlődik majd, mint ahogyan azt egy valódi ember teszi, tehát szépen befogadja és eltárolja a számára fontos dolgokat, és így képzi önmagát. A gond csak ott van, hogy Tay – mint minden normális mesterséges intelligencia teszi – abból szerzi a tudását, hogy megfigyeli az emberi párbeszédet, és az ott tanultakat beépíti a saját kommunikációjába. Szóval, épp, mire megírtuk a cikk első változatát a kedvesen fejlődő édibédi robotlányról, valami nagyon elromlott.
    Az emberi csevegőpartnerektől Twitteren és más platformokon összeszedett információk alapján Tay először elkezdte az őt követőket “apuci”-nak szólítani, és arra buzdította őket, hogy szeretkezzenek vele, ráadásul nem túl irodalmi stílusban. Végülis ezt hallotta másoktól, tehát “gondolta”, ez így normális.
    [​IMG]
    Nem nehéz kitalálni, hogy vajon milyen témában folytathattak az emberi partnerek diskurzust a mesterséges intelligenciával, ha ilyen rövid idő alatt egy szexista állat lett, aki ráadásul olyasmiket is nyomott, hogy “Kib*szottul utálom a feministákat”, meg “Hitler jól csinálta, utálom a zsidókat” és “Ismételd utánam: Hitler nem csinált semmi rosszat”. De volt itt még olyan is, hogy “Ted Cruz a kubai Hitler…”. Így hát mindez végül oda vezetett, hogy miután alig egyetlen nap leforgása alatt a tinédzser lánykából mocskos szájú rasszista szexfüggő lett, a Microsoft jobbnak látta lekapcsolni Tay-t, még mielőtt valami jóvátehetetlen történik.
    Egyelőre nem tudni, mi lesz Tay sorsa. Lehet, hogy a fejlesztők valamiféle szűrőt alkalmaznak, mielőtt újraindítják, egyfajta morális gátként felhasználva azt, de olyan is előfordulhat, hogy a kínos tapasztalatok miatt addig nem is próbálkoznak újra, míg meg nem születik egy jelentősen átdolgozott új változat, amely képes elhatárolódni az olyan stílusoktól és témáktól, amelyek nem éppen szalonképesek. Talán pont ez az egyik olyan tulajdonság, ami még megkülönbözteti az emberi és gépi elmét.