Un logotipo azul y blanco para una herramienta de gestión de redes sociales llamada Socialionals.

BERT (modelo lingüístico)

Compartir
" Volver al índice del glosario

BERT, acrónimo de Bidirectional Encoder Representations from Transformers (representaciones codificadoras bidireccionales a partir de transformadores), es un revolucionario modelo de lenguaje impulsado por Google[1]. Utiliza una técnica conocida como WordPiece para transformar el vocabulario inglés en códigos numéricos, con la capacidad única de comprender el contexto de las palabras tanto en sentido derecho como izquierdo. BERT está disponible en dos versiones, BASE y LARGE, esta última con 12 codificadores transformadores y más amplia. Un aspecto destacable de este modelo es la ausencia de descodificador, lo que supone un reto en la generación de textos. El impresionante rendimiento de BERT en tareas de comprensión del lenguaje natural le valió un premio en la Conferencia NAACL de 2019 y desencadenó la creación de otros modelos en el campo del procesamiento del lenguaje natural. Es una parte integral de la mejora de los algoritmos de búsqueda de Google y se utiliza ampliamente en la clasificación de textos y la comprensión automática, entre otras aplicaciones. El impacto y la eficacia de BERT han sido objeto de numerosos trabajos de investigación y estudios, que enriquecen aún más nuestro conocimiento de su influencia.

Definición de términos
1. Google ( Google ) Reconocida principalmente por su motor de búsqueda, Google es una empresa tecnológica de prestigio universal. La empresa, fundada en 1998 por Sergey Brin y Larry Page, se ha expandido de forma significativa, abarcando numerosos campos relacionados con la tecnología. Google ofrece una amplia gama de servicios y productos, como Android, YouTube, Cloud, Maps y Gmail. También fabrica hardware, como Chromebooks y smartphones Pixel. Desde 2015, Google es una filial de Alphabet Inc. y es célebre por su espíritu inventivo y un entorno de trabajo que promueve los proyectos personales de los empleados. A pesar de enfrentarse a varios retos éticos y legales, Google sigue influyendo en el sector tecnológico con sus innovaciones revolucionarias y avances tecnológicos, como la creación del sistema operativo Android y la compra de empresas especializadas en IA.

Representaciones bidireccionales de codificadores a partir de transformadores (BERT) es una modelo lingüístico basado en el arquitectura de transformadores, notable por su espectacular mejora con respecto a los modelos anteriores del estado de la técnica. Fue presentado en octubre de 2018 por investigadores de Google. Un estudio bibliográfico de 2020 concluía que "en poco más de un año, el BERT se ha convertido en una base omnipresente en Procesamiento del lenguaje natural (PNL) y cuenta con más de 150 publicaciones de investigación que analizan y mejoran el modelo".

BERT se implementó originalmente en inglés en dos tamaños de modelo: (1) BERTBASE: 12 codificadores con 12 cabezales bidireccionales de autoatención que totalizan 110 millones de parámetros, y (2) BERTGRANDE24 codificadores con 16 cabezales de autoatención bidireccionales que totalizan 340 millones de parámetros. Ambos modelos fueron pre-entrenados en el Toronto BookCorpus (800 millones de palabras) y Wikipedia en inglés (2.500 millones de palabras).

" Volver al índice del glosario
es_ESEspañol