Online games als
Call of Duty hebben meestal
voice chat, maar trouwe fans weten natuurlijk dat je daardoor af en toe ook onaangename dingen te horen krijgt. Maar met
Call of Duty Modern Warfare 3 is dat een stuk minder. Dat vertelt Activision in een nieuwe
blogpost.
Het afgelopen jaar heeft Activision veel stappen gezet om de
toxic sfeer die er soms is in de online multiplayer van Call of Duty wat draaglijker te maken. Dat lijkt aardig goed te lukken, mede dankzij nieuwe systemen om automatisch te kunnen modereren. Met name een
AI-programma dat naar voice chat luistert om
toxic gedrag op te speuren is erg effectief.
Met dit programma, dat een paar maanden voor de release van Modern Warfare 3 werd uitgebracht, is het aantal spelers dat te maken krijgt met storende uitspraken in voice chat flink verminderd. Activision spreekt van een vermindering van 50 procent, dus een halvering, sinds de lancering van Modern Warfare 3. Ook is het aantal spelers dat herhaaldelijk de gedragscode breekt met 8 procent gedaald.
Hoewel automatische
moderatie dus effectief is, vraagt Activision nog steeds dat spelers meldingen maken van toxic gedrag. Dat gebeurde aanvankelijk nog maar weinig. Om het aan te moedigen krijgen spelers die een melding maken nu een bedankje voor de melding. In de toekomst hoopt Activision het ook aan spelers te kunnen melden als hun rapporten tot actie texen een
toxic speler hebben geleid.
Gedragscode Call of Duty krijgt update
Om duidelijk te zijn over wat Call of Duty wel en niet tolereert in de online-modus is de gedragscode van de game geüpdatet. Hij maakt nu duidelijk dat elke vorm van pesterijen op basis van onder andere ras, identiteit, seksualiteit of geloof niet geoorloofd is. Er mag geen kwetsende taal of hate speech in text of voice chat voorkomen.