Intel présente un nouveau produit pour censurer le langage offensant

Intel présente un nouveau produit

Intel, le géant de la Silicon Valley, célèbre pour ses microprocesseurs et leurs bugs très sérieux, a annoncé etLe lancement d'un programme d'Intelligence Artificielle appelé Bleep. Bleep semble être capable de censurer les discours racistes et «offensants» de l'audio du jeu. Intel affirme que l'outil d'intelligence artificielle permettra aux utilisateurs de détecter et de supprimer les paroles toxiques de leur chat vocal. "

Intel présente un nouveau produit mais sera-t-il bon?

Bleep, offrira aux utilisateurs une échelle mobile d'options de discours de haine. Le programme est encore en phase de développement et pourrait être lancé dans le courant de 2020.

La nouvelle technologie Il sera intégré au système audio des ordinateurs de bureau et portables Intel. Une bonne raison (comme si Intel ne nous en donnait pas assez, pour acheter des produits AMD)

Comme on peut le voir dans la présentation, le logiciel comprend une échelle mobile pour déterminer si l'utilisateur veut entendre "rien", "certains", "la plupart" ou "tous" les discours qui entrent dans une catégorie de langage offensant, y compris le capacitisme, la honte corporelle, l'agression, la haine LGBTQ +, la misogynie, les injures, le racisme, la xénophobie, le langage sexuellement explicite, les jurons, le nationalisme blanc et un curseur qui détermine à quelle fréquence l'utilisateur veut entendre le "N-Word"

Si jusqu'à présent vous avez eu le plaisir de ne pas croiser quelqu'un qui utilise le mot capacitisme, il semble que ce soit une discrimination en faveur de personnes sans handicap. Autrement dit, nuire aux personnes handicapées au profit de ceux qui n'en ont pas. Oui, j'étais aussi abasourdi.

N-word fait référence au mot nigger, une expression que les Afro-Américains considèrent comme désobligeante lorsqu'elle est utilisée par quelqu'un qui n'est pas afro-américain.

Selon Kim Pallister, PDG de l'équipe d'Intel Gaming Solutions, la fonction d'échelle mobile a été conçue pour s'adapter à différentes situations. Pallister a montré que les utilisateurs peuvent souhaiter des options vocales plus permissives s'ils jouent avec des amis, ou que certains jeux peuvent inclure un son offensant dans le jeu que les utilisateurs veulent toujours entendre.

Je n'aime pas jouer à des jeux en ligne, mais si je le faisais, je ferais partie de ceux qui ne veulent pas que leur ordinateur leur dise quoi écouter.

Cependant, Intel a clairement indiqué que mon opinion ne les intéressait pas.
Marcus Kennedy, directeur général du segment Esports et jeux pour le groupe informatique client d'Intel, a déclaré:

Je pense qu'il aurait été naïf d'aller dans cet espace pour essayer de faire quelque chose ici si nous ne nous attendions à aucun dialogue. Nous nous attendions absolument à ce que cela génère quelque chose, mais de notre point de vue, la bonne chose à faire est de rester ancré dans la responsabilisation du joueur et nous le soutiendrons quel que soit le type de rejet que nous recevons.

Pour et contre

Si la route de l'enfer est pavée de bonnes intentions, ses murs sont sûrement couverts d'études d'ONG qui le soutiennent. Cette absurdité d'Intel ne fait pas exception.

Une étude menée en 2020 par la Ligue anti-diffamation a révélé que 81% des adultes américains âgés de 18 à 45 ans qui jouent à des jeux multijoueurs en ligne ont été victimes d'une forme d'intimidation. Les sociétés de jeux ont été invitées à faire plus pour lutter contre le harcèlement et la discrimination sur leurs plates-formes, en particulier à la lumière du récent mouvement pour la justice raciale. Outre les efforts d'Intel, le service de streaming de jeux vidéo Twitch a annoncé mercredi que la société modifierait sa politique de harcèlement pour prendre des mesures contre les utilisateurs qui commettent des «fautes graves», même lorsque ces actions se déroulent hors plateforme.

Mais, au moins, il y a des gens qui ont du bon sens. Une autre étude publiée en avril 2020, en l'occurrence par la National Academy of Sciences, a révélé que plusieurs programmes de reconnaissance vocale automatisée "présentaient des disparités raciales substantielles.»Et avait un taux d'erreur beaucoup plus élevé pour les haut-parleurs noirs par rapport aux blancs.

Mais rassurez-vous, pour éviter cela, la société a assuré que "le logiciel est construit par une équipe diversifiée"

J'aurais préféré une équipe compétente, mais il semble qu'aujourd'hui la diversité est la réponse à tout.


Soyez le premier à commenter

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont marqués avec *

*

*

  1. Responsable des données : AB Internet Networks 2008 SL
  2. Finalité des données: Contrôle du SPAM, gestion des commentaires.
  3. Légitimation: votre consentement
  4. Communication des données: Les données ne seront pas communiquées à des tiers sauf obligation légale.
  5. Stockage des données: base de données hébergée par Occentus Networks (EU)
  6. Droits: à tout moment, vous pouvez limiter, récupérer et supprimer vos informations.