Réduire la toxicité en ligne à l'aide du machine learning
Perspective identifie les commentaires injurieux grâce à des modèles de machine learning. Ces modèles attribuent un score à un groupe de mots en fonction de l'impact perçu que pourrait avoir le texte dans une conversation. Grâce à ce score, les développeurs et les éditeurs peuvent envoyer des remarques aux auteurs de commentaires, aider les modérateurs à examiner plus facilement les commentaires ou les lecteurs à bloquer les "propos toxiquesNous définissons un propos toxique comme un commentaire grossier, irrespectueux ou déraisonnable risquant d'inciter une personne à abandonner une discussion.".
Les modèles de Perspective donnent un score pour plusieurs attributs différents. En plus de l'attribut principal "Toxicité", Perspective peut donner un score aux attributs suivants :
- Toxicité extrême
- Insultes
- Langage grossier
- Attaque portant sur l'identité
- Menace
- Caractère sexuel explicite
Pour en savoir plus sur nos recherches en cours et nos modèles expérimentaux, consultez le site pour les développeurs.
L'API Perspective est proposée sans frais et disponible en allemand, anglais, arabe, chinois, coréen, espagnol, français, hindi, hinglish, indonésien, italien, japonais, néerlandais, polonais, portugais, russe, suédois et tchèque. L'équipe développe en permanence des modèles pour gérer de nouvelles langues.
Pour en savoir plus sur les plates-formes et les éditeurs internationaux qui utilisent l'API Perspective, consultez nos études de cas. Pour connaître les langues en cours de développement, consultez le site pour les développeurs.
Comment personnaliser Perspective en fonction de vos besoins
Vous souhaitez en savoir plus ? Consultez notre site pour les développeurs afin d'obtenir davantage d'informations techniques.