Facebook is recent overgestapt van zogenoemde phrase-based vertaalmodellen naar neurale netwerken voor zijn systemen die zorgen voor de automatische vertalingen op het sociale netwerk. Dagelijks handelen die systemen 4,5 miljard vertalingen af.
Facebook gebruikt voortaan neurale netwerken en stapt af van op zinsdelen gebaseerde vertaalmodellen, omdat deze modellen beperkingen kennen, schrijft het sociale netwerk. Bij het opbreken van zinnen kunnen slechts enkele woorden tegelijk geanalyseerd worden. Er kunnen met name fouten ontstaan bij vertalingen waarbij de volgorde van woorden in een zin van de ene taal, flink anders is dan die van een andere taal.
Facebook gebruikt daarom een techniek voor neurale netwerken die sequence-to-sequence-lstm heet, waarbij lstm staat voor long short-term memory. Deze techniek gebruikt een reeks woord-tokens in de ene taal als input, en produceert een reeks woord-tokens in de andere als output. Volgens Facebook nemen de neurale netwerken de gehele context van de bronzin mee en kan daarom rekening worden gehouden met grote verschillen in woordvolgorde bij vertalingen. Het sociale netwerk geeft een voorbeeld van de vertaling tussen Engels en Turks; zie de afbeelding hieronder.
Facebook gebruikt zijn deep learning-framework Caffe2 om ervoor te zorgen dat de modellen snel genoeg draaien en schaalbaar zijn. Het sociale netwerk richt zich nu op het laten meewegen van foto's bij vertaling van onderschriften en op het gebruik van meertalige modellen, waarbij zinnen tegelijk naar meerdere talen omgezet worden, om zo de vertaling tussen twee talen te verbeteren.
Google stapte eind vorig jaar over van phrase-based vertalingen naar zijn eigen Google Neural Machine Translation System, dat eveneens gebaseerd is op sequence-to-sequence-lstm.
Bovenaan een phrase-based vertaling, daaronder de sequence-to-sequence-lstm-variant.