Från och med idag meddelar Instagram att de kommer att börja varna sina användare när de publicerar en ”potentiellt stötande” bildtext till ett foto eller en video. Om en användare lägger ut något som tjänstens AI-verktyg uppfattar som stötande så kommer appen att generera ett meddelande som säger att ”denna text liknar andra texter som tidigare har blivit rapporterade”. Användaren uppmuntras då att redigera sin bildtext men ges också möjlighet att publicera texten oförändrad.

Den nya funktionen bygger på ett liknande AI-verktyg som Instagram introducerade i somras. Företaget säger att genom att påminna sina användare att kolla igenom sin text en extra gång innan publicering har haft lovande resultat i kampen mot mobbning på nätet.

Denna funktion är bara den senaste i en serie av åtgärder som Instagram har tagit för att hantera mobbning på sin plattform. Skillnaden här är dock att Instagram förlitar sig på att användarna ska upptäcka när en av deras kommentarer ”passerar linjen”.

Den nya funktionen kommer till en början att lanseras i utvalda länder men släpps globalt under de kommande månaderna.