L’application Google Lookout utilise l’IA pour aider les malvoyants

L’application mobile de vision assistée est conçue pour aider les utilisateurs aveugles et malvoyants à comprendre leur environnement. Les gens peuvent également poser des questions de suivi pour plus d’informations sur une image.

L’IA pour générer des descriptions d’images plus détaillées

L’application Lookout de Google, qui aide les personnes aveugles ou malvoyantes à identifier des objets et à lire des documents, utilise désormais l’IA pour générer des descriptions d’images plus détaillées.

Dans le cadre de la mise à jour, les utilisateurs peuvent télécharger une image et obtenir des informations plus précises sur ce qui est représenté, même s’il n’y a pas de légendes ou de texte alternatif. (Le texte alternatif décrit une image et peut être lu à haute voix par un lecteur d’écran pour les personnes malvoyantes.) De plus, les gens peuvent poser des questions de suivi sur une image en tapant les questions ou en utilisant leur voix. Cela peut aider à fournir plus de détails et à donner une meilleure idée de ce qui est affiché.

Google affirme que la nouvelle fonctionnalité Image Q&A sur Lookout peut être utilisée sur des photos de réseaux sociaux sans texte alternatif, des images dans des discussions de groupe ou des images de la pellicule de quelqu’un.

Lookout ajoute également 11 nouvelles langues

La fonctionnalité Image Q&A sera lancée mardi aux États-Unis, au Royaume-Uni et au Canada en anglais uniquement, avant d’être finalement lancée à l’échelle mondiale dans davantage de langues.

Lookout ajoute également 11 nouvelles langues, dont le chinois, le japonais et le coréen. Il prend désormais en charge un total de 34 langues.

Lookout est l’une des nombreuses applications et fonctionnalités de Google conçues pour améliorer l’accessibilité numérique. Ces dernières années, le géant de la recherche a également dévoilé  le projet Relate , conçu pour aider les personnes souffrant de troubles de la parole à communiquer plus facilement avec les autres ; Live Transcribe , qui propose des transcriptions parole-texte en temps réel pour les personnes sourdes ou malentendantes ; et les notifications sonores , qui alertent les personnes malentendantes des « sons critiques de la maison » comme les bips des appareils électroménagers, l’eau qui coule et les aboiements des chiens.  L’année dernière, il a également lancé une nouvelle fonctionnalité d’accessibilité pour les téléphones Pixel afin d’aider les utilisateurs aveugles et malvoyants à prendre des selfies.

Apple et Amazon proposent également des fonctions pour malvoyants

D’autres entreprises technologiques ont également publié leur juste part de mises à jour en matière d’accessibilité. La fonction de détection de personnes d’Apple permet aux utilisateurs malvoyants d’iPhone et d’iPad de savoir à quel point quelqu’un est proche d’eux, et la société a ajouté des sous-titres en direct sur l’iPhone, l’iPad et le Mac pour aider les gens à suivre l’audio et la vidéo sur FaceTime et les applications de vidéoconférence.

De son côté, le géant de la technologie Amazon a récemment ajouté une fonctionnalité qui permet aux clients d’Amazon Fire TV souffrant de perte auditive de diffuser de l’audio directement sur leurs implants auditifs. Il a également publié une fonctionnalité appelée « Dialogue Boost», qui permet aux téléspectateurs d’entendre plus facilement les dialogues au-dessus de la musique de fond et des effets dans une émission ou un film.

Articles récents

Les plus lus

A lire également