reklama
Aktuality  |  Články  |  Recenze
Doporučení  |  Diskuze
Grafické karty a hry  |  Procesory
Storage a RAM
Monitory  |  Ostatní
Akumulátory, EV
Robotika, AI
Průzkum vesmíru
Digimanie  |  TV Freak  |  Svět mobilně

FACEIT a Google tvoří AI proti "toxickým" hráčům

28.10.2019, Jan Vítek, aktualita
FACEIT a Google tvoří AI proti "toxickým" hráčům
Označení toxický hráč sedí na jedince, který nechce hrát dle pravidel, nejde mu o dobrý zážitek pro všechny zúčastněné, a tak obvykle není vítán. FACEIT a Google přitom chtějí tento problém řešit pomocí AI.
Na takzvané toxické hráče narazíme často ve hrách, které nabízí možnost psaní zpráv ostatním či prostě s nimi nějakým způsobem komunikovat. Googlu a FACEIT jde právě o hlídání této formy komunikace, kterou někteří využívají pro napadání jiných. Obvykle fungují různé systémy pro nahlašování nevhodných vzkazů a v důsledku se tím musí zabývat různí moderátoři, kteří pak udělují varování, nebo rovnou některým dají zákaz. Zmíněné společnosti by takovou jistě ne moc zajímavou práci či funkci nahradily umělou inteligencí. 
 
 
Konkrétně k tomu má posloužit jistá Minerva AI založená na strojovém učení, která tak bude mít za úkol analyzovat projev, respektive již to za úkol má. Proběhly totiž první testy a autoři jsou s výsledky vesměs spokojeni.
 
Minerva se zkouší od konce letošního srpna a dle statistik dokázala mezi více než 200 miliony textových zpráv identifikovat přes 7 milionů, které byly nevhodné. Na základě toho bylo uděleno na 90 tisíc varování a zákaz dostalo 20 tisíc hráčů, což prý mělo výsledný efekt ve snížení počtu "toxických" zpráv o více než pětinu. 
 
Byl to ale pouze test rané fáze Minervy a spíše jen studie, na níž se bude dál stavět a tvořit další verze. Konečným cílem je dle FACEIT vytvořit umělou inteligenci, která bude schopna v reálném čase odhalit "všechny druhy nevhodného chování" a zajistit, aby se všichni zaměřili pouze na hraní samotné. 
 
Vypadá to tak zajímavě a rovněž velice děsivě. Posuzování příspěvků pomocí umělé inteligence bude samozřejmě poplatné tomu, jak ta bude vyvinuta a nastavena, neboť při trénování takové AI se pochopitelně musí poskytnout příklady, na nichž se ta bude učit. Někdo tak musí explicitně určit, co je v pořádku a co není. Zdá se přitom, že schopnost lidí se kvůli něčemu urazit se v poslední době vyvíjí závratným tempem, a tak si můžeme v duchu trošku popřemýšlet nad tím, jak může toxické chování vypadat dnes dle aktuálních představ a jak může vypadat za pár let. 
 
Zdroj: Medium


reklama