Activision ka vite që po përpiqet të godasë këtë sjellje dhe një pjesë e zgjidhjes mund të përfshijë inteligjencën artificiale.
Activision ka bashkëpunuar me një kompani të quajtur Modulate për të sjellë "moderimin e bisedës zanore në lojë" në titujt e tyre. Sistemi i ri i moderimit, duke përdorur një teknologji AI të quajtur ToxMod, do të punojë për të identifikuar sjelljet si gjuha e urrejtjes, diskriminimi dhe ngacmimi në kohë reale.
Shfaqja fillestare beta e ToxMod në Amerikën e Veriut fillon sot. Është aktiv brenda Call of Duty: Modern Warfare II dhe Call of Duty: Warzone. Një "lëshim i plotë mbarëbotëror" (nuk përfshin Azinë, shënimet në njoftimin për shtyp) do të pasojë më 10 nëntor me publikimin e Call of Duty: Modern Warfare III, hyrje e re e këtij viti në ekskluzivitet.
Njoftimi për shtyp i Modulate nuk përfshin shumë detaje se si funksionon saktësisht ToxMod. Faqja e saj e internetit vë në dukje se mjeti "tregon bisedën me zë për të shënuar sjelljen e keqe, analizon nuancat e secilës bisedë për të përcaktuar toksicitetin dhe u mundëson moderatorëve që t'i përgjigjen shpejt çdo incidenti duke ofruar kontekst përkatës dhe të saktë". CEO i kompanisë tha në një intervistë të fundit se mjeti synon të shkojë përtej transkriptimit të thjeshtë; ai merr në kontekst faktorë si emocionet dhe vëllimin e një lojtari, në mënyrë që të dallojë deklaratat e dëmshme nga ato lozonjare.
Vlen të përmendet se mjeti (të paktën tani për tani) nuk do të ndërmarrë veprime kundër lojtarëve bazuar në të dhënat e tij, por thjesht do të paraqesë raporte tek moderatorët e Activision. Përfshirja njerëzore ka të ngjarë të mbetet një mbrojtje e rëndësishme pasi kërkimet kanë treguar se sistemet e njohjes së të folurit mund të shfaqin paragjykime në mënyrën se si u përgjigjen përdoruesve me identitete dhe thekse të ndryshme racore.