Novice

Tay, microsoft ia, ki se je noril

Kazalo:

Anonim

Tayova zgodba, Microsoftova umetna inteligenca, ki je znala spodbuditi pogovore z osebo, je bila prekratka, a očarljiva. Ta umetna inteligenca (AI) se je lahko učila iz pogovorov, ki jih je sklenila z ljudmi, vključevala nova znanja in pojme iz teh pogovorov, neprijetnosti niso bile dolgo prihajajo.

Težava se je pojavila, ko je Tay začela objavljati najbolj žaljive tvite s svojega Twitter računa, nekateri biseri so bili:

Hitler je imel prav. Sovražim Jude " , " Sovražim feministke, v peklu bi morale goreti " ali razglasiti, da je bil Bush odgovoren za " 9/11 " , samo če naštejem nekaj tvitov, ki jih objavim, ampak zaupaj mi, obstaja še veliko več.

Microsoft je pripomnil, da se je AI zelo dobro odrezala v zaprtih testnih skupinah, ko pa so odprli skupino in je lahko kdo imel pogovor s Tayom, so se tu začele težave. Microsoft je obtožil, da obstaja skupina ljudi, ki je pred Tayom začela usklajeni napad, da bi izkoristila nekatere njegove ranljivosti, to je, da je začela Tayu pisati ksenofobična, seksistična, žalitvena sporočila, da se Tay uči in objavlja v svojih tvitih.

Microsoft deaktivira Tay-a pred sprostitvijo upora stroja

Zaradi te nevšečnosti je Microsoft izključil AI in do nadaljnjega pustil zaščiten račun Twitter, poleg ustreznih javnih opravičil.

"Zelo smo žalostni zaradi Tayevih žaljivih in nenamernih škodljivih tvitov, ki ne predstavljajo, kdo smo ali kaj predstavljamo, ali kako oblikujemo Taya, " je na svojem blogu povedal Peter Lee, podpredsednik korporacije Microsoft Research.

Tay: »Sem dobra oseba. Samo sovražim vse. "

Microsoft je pojasnil, da Taya ni opustil in da si bodo še naprej prizadevali za izboljšanje svoje umetne inteligence, tako da bo predstavljal najboljše človeštvo in ne "najslabšega" , zagotovo pa zatiral tovrstne komentarje, ki so jih tako razjezili na družbenih omrežjih.

Morda je pri tej zadevi najbolj zanimivo to, da ne gre za slabo programiranje, AI se je iz pogovorov preprosto naučil in jih vključil, s čimer je pokazal, kako nevarna je lahko popolnoma brezplačna umetna inteligenca in na nek način zlo človeka.

Novice

Izbira urednika

Back to top button