Powered By Blogger

Total de visualizações de página

Postagens populares

domingo, 2 de agosto de 2015

GOOGLE MELHORA APP DE TRADUÇÃO DE IMAGENS COM RECURSOS DE REDE NEURAL

O aplicativo de tradução de imagens do Google permite que usuários apontem sua câmera a um objeto que contenha letras, de forma que é possível traduzir coisas como menus e sinais quando você, por exemplo, estiver viajando. Com a nova atualização, a gigante de buscas também adicionou novos 20 idiomas ao aplicativo. "Nós queremos tornar possível que a ferramenta reconheça uma letra com uma pequena quantidade de rotação, mas não muita. Se nós sobrecarregarmos a rotação, a rede neural irá usar muita de sua densidade de informação para coisas que são irrelevantes. Então, nós colocamos esforços em fazer ferramentas que nos dariam um tempo rápido de resposta e boas visualizações", disse Otavio Good, engenheiro de software para o Google Translate, em um post do blog da companhia. "Dentro de alguns minutos, nós podemos mudar os algoritmos para gerar dados de treinamento, treiná-los novamente e visualizá-los". Para fazer isso em tempo real, a companhia precisa também otimizar as operações matemáticas, o que significa usar processadores móveis e tornar coisas como matrizes múltiplas para caber em processamento em níveis de memória cachê. O aplicativo filtra objetos em segundo plano enquanto lê letras em imagens. Ao olhar um monte de pixels com cores similares e estiverem muito próximos um do outro, o aplicativo reconhece como uma linha contínua de texto para ler.
A ferramenta tem sido treinada usando uma rede neural convolucional para aprender quais letras são diferentes em idiomas e diferenciar letras daquelas que não fazem parte de um alfabeto. Um gerador de caracteres foi também desenvolvido para criar ruído ao redor de caracteres que são traduzidos como borrões e rotação de forma que o aplicativo não precisa contar sempre com textos limpos e bem apresentados para funcionar. No caso, a solução do Google procura por diferentes idiomas uma vez que as letras são reconhecidas. Da mesma forma consegue reconhecer palavras de um grupo de letras de números. "Nós conseguimos fazer isso, por que já encontramos e lemos as letras na imagem, então sabemos exatamente onde elas estão. Nós podemos olhar para as cores ao redor das letras e usar isso para apagar os caracteres originais. E depois, nós podemos desenhar uma tradução no topo usando cor no primeiro plano", resumiu Good. FONTE: idgnow.com.br/internet/2015/07/31/google-melhora-app-de-traducao-de-imagens-com-recursos-de-rede-neural/

Nenhum comentário: