این سرویس که ToxMod نام دارد از چندین هوش مصنوعی برای رونویسی و تجزیه و تحلیل مکالمات شفاهی بین بازیکنان استفاده می کند و نقض احتمالی قوانین جامعه را برای توجه ناظران انسانی نشان می دهد. ToxMod که توسط شرکت Modulate در ماساچوست توسعه داده شده است توسط شرکت هایی که بازی ها یا …
منبع: https://www.newscientist.com/article/2357939-ai-is-listening-in-on-gamer-chat-for-toxic-and-abusive-language/?utm_campaign=RSS%7CNSNS&utm_source=NSNS&utm_medium=RSS&utm_content=home
هوش مصنوعی برای تشخیص آزار و اذیت در ارتباطات کلامی برای پلتفرمهای بازی و واقعیت مجازی استفاده میشود، اما این هوش مصنوعیها برای همگام شدن با تکامل اشکال شدید گفتار تلاش میکنند.
فن آوری
7 فوریه 2023