Kategorier: IT-nyheter

TikTok har förbättrat mekanismen för att upptäcka potentiellt skadligt innehåll

Under de senaste månaderna har TikTok arbetat på nya sätt att åldersbegränsa vissa typer av innehåll som en del av en bredare ansträngning för att stärka säkerhetsfunktionerna för yngre användare. I början av detta år introducerade det sociala nätverket ett nytt klassificeringssystem som heter Innehållsnivåer, för att hjälpa den att identifiera mer "moget" innehåll.

Nu har företaget ytterligare en uppdatering om detta försök. I ett blogginlägg säger företaget att det lanserar en ny version av sin "borderline suggestive model", som företaget använder för att automatiskt upptäcka "sexuellt explicit, suggestivt eller borderline innehåll." Enligt en TikTok-representant är den nya modellen bättre kapabel att upptäcka så kallat "borderline-innehåll", vilket betyder videor som inte tydligt bryter mot appens regler men kanske inte är lämpliga för yngre användare.

TikTok är inte den enda plattformen som filtrerar bort den här typen av innehåll från rekommendationer. Instagram har också länge försökt ta bort innehåll från sina rekommendationer som ligger på gränsen till vad som är tillåtet. Men att nöja sig med "vuxna" teman, men som inte innehåller uppriktig nakenhet, är mycket svårare för automatiserade system att upptäcka. TikTok-teamet släppte inte specifik information om hur mycket mer exakt det nya systemet är, men sa att företaget under de senaste 30 dagarna "förhindrade att mer än 1 miljon sexuellt explicita videor sågs av tonåringar."

Du kan hjälpa Ukraina att slåss mot de ryska inkräktarna. Det bästa sättet att göra detta är att donera medel till Ukrainas väpnade styrkor genom Rädda liv eller via den officiella sidan NBU.

Läs också:

 

Dela
Julia Alexandrova

Kaffegubben. Fotograf. Jag skriver om vetenskap och rymden. Jag tror att det är för tidigt för oss att träffa utomjordingar. Jag följer utvecklingen av robotik, ifall...

Kommentera uppropet

E-postadressen publiceras inte. Obligatoriska fält är markerade*