Innhold
Et av de store temaene i Google I / O 2019-åpningsnøtten var inklusivitet. En ny funksjon i Android Q tar sikte på å forbedre inkluderingen for personer som er døve og tunghørte ved å tilby øyeblikkelig billedtekst til omtrent hvilken som helst lyd eller video som spilles av på en telefon.
Funksjonen, som kalles Live Caption, bruker AI til å oversette tale som spilles av på en smarttelefon til raske, nøyaktige bildetekster. Det fine med det er at funksjonen fungerer med en hvilken som helst app, uansett om den spiller av lyd eller video, og uansett om innholdet blir streamet fra en server, spilt fra lokal lagring eller generert på farten av et menneske.
Google Pixel 3a XL-anmeldelse: Kom for kameraet, hold deg til opplevelsen
Live Caption fungerer med podcaster, videoer, lyd og videochat-apper som Duo. Demoen vi så på scenen til Google I / O-grunntonen virket veldig jevn og imponerende, selv om resultatene fra den virkelige verden selvfølgelig kan variere.
Live Caption vil være tilgjengelig med ett trykk - brukere vil kunne aktivere det ved å klikke på et nytt ikon som er synlig når du endrer systemvolumet. Alt blir behandlet lokalt, noe som betyr at du ikke trenger å bekymre deg for at tredjeparter lytter på samtalene dine.
Bildetekster vises i et svart vindu som er lagt over toppen av det normale grensesnittet. Tekstene blir ikke lagret for senere, så du vil bare se dem når den tilsvarende lyden spilles av.
Live Caption fungerer med podcaster, videoer, lyd og videochat-apper som Duo.
Selv om døve kan ha nytte av det meste av denne kule nye funksjonen, har Live Caption potensialet til å være nyttig for mange andre brukere, i en rekke situasjoner. Det fungerer til og med når lyden blir skrudd ned til null, slik at brukere kan konsumere innhold uten å forstyrre noen rundt seg.
Live Caption er en ny tilgjengelighetsfunksjon som er bakt i Android Q. Du må aktivere den fra innstillingene før du bruker den, og det er foreløpig ikke klart om funksjonen vil bli inkludert av alle OEM-er på Android Q-enhetene sine.
Live stafett
Selv om muligheten til å se videoer på stum er ganske kul, er den også triviell i forhold til den livsendrende effekten live captioning-teknologi kan ha for noen mennesker. Google viste hvordan Live Caption, kombinert med Smart Response og Smart Compose-funksjonene den først debuterte i fjor, kan hjelpe folk som ikke kan snakke, å ha samtaler. Teknologien, kalt Live Relay, kan gjøre tale til skrevet tekst som døve brukere lett kan samhandle med. Deretter blir svaret omgjort til syntetisert stemme og videresendt til personen på slutten av linjen.
Prosjekt Euphonia
Tar ting et skritt frem, leter Googles forskere også etter måter å trene talegjenkjenningsmodeller til å forstå ikke-standardtaler, som de fra folk som stammet, hadde slag eller lider av andre svekkelser. Det langsiktige målet er å få datamaskiner til å forstå de millionene mennesker der ute som har talevansker eller ikke engang kan snakke.
Google advarte om at det fortsatt er mye arbeid som må gjøres i denne søken for å få teknologi til å fungere for bokstavelig talt alle. Administrerende direktør Sundar Pichai inviterte personer med talevansker til å bidra med taleprøver som vil hjelpe selskapet med å bygge mer inkluderende anerkjennelsesteknologier.
Følg med for mer fra Google I / O.