Banebrytende Z-Code Mixture of Experts-modeller lever nå i Translator
Translator tar nå i bruk Z-Code-modeller, en banebrytende AI-teknologi som betydelig forbedrer kvaliteten på produksjonsoversettelsesmodeller. Z-kodemodeller bruker en ny arkitektur kalt Mixture of Experts (MoE) som gjør det mulig for modeller å lære å oversette mellom flere språk samtidig. Dette åpner veien for høykvalitets maskinoversettelse utover høyressursspråk og forbedrer kvaliteten på lavressursspråklige språk som mangler betydelig opplæringsdata.
Z-kodemodeller er tilgjengelig nå ved invitasjon til kunder som bruker Dokumentoversettelse funksjonen og den vil bli gjort tilgjengelig for alle kunder og for andre Translator-produkter i faser. Vær så snill Fyll ut dette skjemaet å be om tilgang til dokumentoversettelse ved bruk av Z-kodemodeller.
Du kan lese mer om denne nyheten i Microsoft AI-kunngjøringsbloggen og Microsoft Research-bloggen.