Tre nya ANVÄNDNING flerspråkiga moduler kommer till TensorFlow

Teknik / Tre nya ANVÄNDNING flerspråkiga moduler kommer till TensorFlow 2 minuter läst

Google Voice Search



Google är en av pionjärerna inom AI-forskning och många av deras projekt har fortsatt att vända huvudet. AlphaZero från Googles DeepMind teamet var ett genombrott i AI-forskning på grund av programmets förmåga att lära sig komplicerade spel i sig (utan mänsklig utbildning och intervention). Google har också gjort ett utmärkt arbete i Program för bearbetning av naturliga språk (NLP), vilket är en av anledningarna till Google Assistents effektivitet när det gäller att förstå och bearbeta mänskligt tal.

Google tillkännagav nyligen lanseringen av tre nya ANVÄND flerspråkiga moduler och tillhandahålla fler flerspråkiga modeller för att hämta semantiskt liknande text.



De två första modulerna tillhandahåller flerspråkiga modeller för att hämta semantiskt liknande text, en optimerad för hämtningsprestanda och den andra för hastighet och mindre minnesanvändning. Den tredje modellen är specialiserad för fråga-svar hämtning på sexton språk (USE-QA) och representerar en helt ny tillämpning av USE. Alla tre flerspråkiga moduler utbildas med hjälp av en multi-task dual-encoder-ramverk , liknar den ursprungliga USE-modellen för engelska, medan vi använder tekniker som vi utvecklat för att förbättra dubbelkodare med softmax-metod för tillsatsmarginal . De är utformade inte bara för att upprätthålla bra överföringsinlärningsprestanda utan för att utföra väl somantiska hämtningsuppgifter.



Språkbearbetning i system har kommit långt, från grundläggande syntax-tolkning till stora vektorassociationsmodeller. Att förstå sammanhang i text är ett av de största problemen i NLP-fältet och Universal Sentence Encoder löser detta genom att konvertera text i högdimensionella vektorer, vilket gör det enklare att rangordna och beteckna text.



Källa för UTE-märkstruktur - Google Blog

Enligt Google, “ De tre nya modulerna bygger alla på semantisk hämtningsarkitektur, som vanligtvis delar upp kodningen av frågor och svar i separata neurala nätverk, vilket gör det möjligt att söka bland miljarder potentiella svar inom millisekunder. ”Med andra ord hjälper detta till bättre indexering av data.

' Alla tre flerspråkiga moduler utbildas med hjälp av en multi-task dual-encoder-ramverk , liknar den ursprungliga USE-modellen för engelska, medan vi använder tekniker som vi utvecklat för att förbättra dubbelkodare med softmax-metod för tillsatsmarginal . De är utformade inte bara för att upprätthålla bra överföringsinlärningsprestanda utan för att utföra väl somantiska hämtningsuppgifter . ” Softmax-funktionen används ofta för att spara beräkningskraft genom att exponentiera vektorer och sedan dela varje element med summan av det exponentiella.



Semantisk hämtningsarkitektur

”De tre nya modulerna är alla byggda på semantiska hämtningsarkitekturer, som vanligtvis delar upp kodningen av frågor och svar i separata neurala nätverk, vilket gör det möjligt att söka bland miljarder potentiella svar inom millisekunder. Nyckeln till att använda dubbla kodare för effektiv semantisk hämtning är att förkoda alla kandidatsvar till förväntade inmatningsfrågor och lagra dem i en vektordatabas som är optimerad för att lösa närmaste grannproblem , vilket gör att ett stort antal kandidater kan sökas snabbt med bra precision och återkallande . '

Du kan ladda ner dessa moduler från TensorFlow Hub. Mer information finns i hela GoogleAI blogginlägg .

Taggar Google