Rosszul Van A Microsoft Gépagya, Ha Hitlert Látja

A témát ebben részben 'Hírek!' macseklany hozta létre. Ekkor: 2016. április 15..

  1. macseklany / Tulajdonos Vezetőségi tag

    Csatlakozott:
    2014. október 31.
    Hozzászólások:
    78,957
    Kapott lájkok:
    4,637
    Beküldött adatlapok:
    0
    Hangjelzés a Chaten:
    nem
    Bárki kipróbálhatja a neten a Microsoft képfelismerő programját, ami mesterséges intelligencia segítségével határozza meg, mi látható az adott fotón. Adolf Hitlert azonban nem ismeri fel - a Microsoft korábbi botránya után valószínűleg szándékosan.


    Biztosra megy a Microsoft, miután el kellett távolítania Tay nevű chatbotját az internetről. A gépi tanulásos módszerrel fejlődő chatbotot hamar törölniük kellett Twitterről, miután az a felhasználók párbeszédeiből tanulva rasszista kijelentéseket tett.


    A Microsoft legújabb nyilvános projektje egy olyan bot, ami felismeri a képek tartalmát. A CaptionBot szintén a felhasználók által tanul és válik finomabbá, a
    captionbot.ai címen próbálhatja ki bárki, hogyan sikerül ez neki.


    [​IMG]
    Félig-meddig sikeresen abszolválta a feladatot

    Forrás: Origo
    A cég korábbi esetből tanulva úgy tervezte a képfelismerőt, hogy az ne nevesítse Adolf Hitlert. A Führerről feltöltött képek esetében ez, vagy hasonló üzenet fogadja a felhasználót: Nem érzem jól magam. Megpróbálod legközelebb?”

    [​IMG]
    Óvatosan kezeli a helyzetet

    Forrás: Origo

    Baki volt a felhasználókra bízni

    A cég márciusban élesítette Tay nevű mesterséges intelligenciáját, aki Twitteren, Kiken és GroupMe-n válaszolt az emberek különféle kérdéseire. A 18-24 éves korosztályt célzó beszélgetőrobot célja az volt, hogy gépi tanulási módszerrel minél többet beszélgessen emberekkel, és tanuljon azokból - ezáltal pedig jobban megértse a természetes nyelvet.


    A játékos beszélgetések azonban nem tartottak sokáig. A cég egy nap után
    eltávolította Tayt, miután egyre hajmeresztőbb dolgokat válaszolt az embereknek. Mint az várható volt, a felhasználók nem csak ártatlan dolgokat kérdeztek tőle. Olyan mondatokat adtak a szájába, mint "Hitlernek igaza volt, gyűlölöm a zsidókat."


    Ez úgy történhetett, hogy a robot elkezdte beépíteni adatbázisába azokat a mondatokat, amiket az emberek írtak neki, és később is felhasználta. Tay több válaszában is utalt Hitlerre, tagadta a holokausztot, és támogatta Donald Trump bevándorlási politikáját.


    Forrás: http://www.origo.hu/techbazis/20160415-kivetelezik-hitlerrel-a-microsoft-gepagya.html