Un logo bleu et blanc pour un outil de gestion des médias sociaux appelé Socialionals.

GPT-1

Partager
" Retour à l'index des glossaires

Le modèle d'apprentissage automatique, GPT-1 ou Generative Pre-training Transformer 1, est une création de l'OpenAI, spécialement conçue pour la compréhension et la génération de tâches de langage humain. Il se caractérise par une structure de transformateur à 12 couches, décodeur uniquement, équipée de douze têtes d'auto-attention masquées à 64 dimensions. L'optimisation des performances de GPT-1 est réalisée à l'aide de l'optimisation Adam algorithme[1]qui se caractérise par un taux d'apprentissage croissant de manière linéaire. Avec un nombre remarquable de 117 millions de paramètres, le GPT-1 met en évidence sa conception complexe. Malgré sa structure avancée, des ajustements minimaux sont nécessaires lorsqu'il est déployé pour différentes tâches. Ses compétences sont particulièrement évidentes dans le domaine du langage naturel déduction[2] Il s'agit d'un modèle qui permet d'effectuer des tâches de recherche, de réponse à des questions, de raisonnement par le bon sens et de similarité sémantique. L'une des ressources clés de ce modèle est l'ensemble de données BookCorpus, choisi pour ses longs passages qui facilitent la gestion d'informations à long terme.

Définitions des termes
1. algorithme. Un ensemble d'instructions ou de règles clairement définies et offrant une solution à un problème ou à une tâche spécifique est connu sous le nom d'algorithme. Les algorithmes, dont les racines remontent aux civilisations anciennes, ont connu des siècles d'évolution et jouent aujourd'hui un rôle essentiel dans l'informatique contemporaine. Des techniques telles que la division et la conquête sont utilisées dans leur création et leur efficacité est évaluée par des mesures telles que la notation big O. Les algorithmes peuvent être représentés de différentes manières, notamment sous forme de pseudocode, d'organigramme ou de langage de programmation. Pour les exécuter, ils sont traduits dans un langage compréhensible par les ordinateurs, la vitesse d'exécution étant influencée par le jeu d'instructions utilisé. En fonction de leur conception ou de leur paradigme de mise en œuvre, les algorithmes peuvent être classés différemment, et leur niveau d'efficacité peut grandement influer sur le temps de traitement. Dans des domaines tels que l'informatique et l'intelligence artificielle, la compréhension et l'application efficace des algorithmes sont vitales.
2. déduction. L'inférence, un processus mental, consiste à tirer des conclusions à partir de preuves existantes et d'un raisonnement logique. Elle fait partie intégrante de la pensée critique et de la résolution de problèmes, et trouve de nombreuses applications dans des domaines tels que la recherche scientifique, l'analyse littéraire et l'intelligence artificielle. Il existe différentes formes d'inférence : déductive, inductive, abductive, statistique et causale, chacune ayant sa propre méthode et son propre objectif. Par exemple, l'inférence déductive s'attache à tirer des conclusions spécifiques à partir de principes généraux, tandis que l'inférence inductive génère des conclusions générales à partir d'exemples spécifiques. Inversement, l'inférence abductive consiste à formuler des hypothèses éclairées sur la base de preuves accessibles, tandis que les inférences statistiques et causales consistent à interpréter des données afin de tirer des conclusions sur un groupe ou d'établir des liens de cause à effet. Néanmoins, la précision des inférences peut être affectée par des biais, des idées préconçues et des interprétations erronées. Malgré ces obstacles potentiels, il est possible d'améliorer les capacités d'inférence par une pratique régulière, des activités de réflexion critique et l'exposition à une variété de lectures.
GPT-1 (Wikipedia)

Transformateur génératif pré-entraîné 1 (GPT-1) a été le premier des OpenAI's grands modèles linguistiques suivants GoogleL'invention de la transformateur en 2017. En juin 2018, OpenAI a publié un document intitulé "Improving Language Understanding by Generative Pre-Training", dans lequel elle présente ce modèle initial ainsi que le concept général d'un modèle d'apprentissage génératif (Generative Pre-Training). transformateur génératif pré-entraîné.

Transformateur génératif pré-entraîné 1 (GPT-1)
Auteur(s) original(aux)OpenAI
Version initialeJuin 2018; il y a 5 ans (Juin 2018)
Référentiel
SuccesseurGPT-2
Type
LicenceMIT
Site webopenai.com/blog/langue non supervisée/ Modifier ceci sur Wikidata
Architecture GPT originale

Jusqu'à présent, les modèles neuronaux de NLP les plus performants utilisaient principalement les éléments suivants apprentissage supervisé à partir de grandes quantités de données étiquetées manuellement. Cette dépendance à l'égard de l'apprentissage supervisé a limité leur utilisation d'ensembles de données qui n'étaient pas bien annotés, en plus de rendre prohibitif le coût et le temps nécessaires pour former des modèles de très grande taille ; de nombreuses langues (telles que le Swahili ou Créole haïtien) sont difficiles à traduire et à interpréter à l'aide de tels modèles en raison du manque de textes disponibles pour la constitution de corpus. En revanche, l'approche "semi-supervisée" d'un TPG comporte deux étapes : une approche non supervisée et une approche "semi-supervisée". génératif une phase de "pré-entraînement" au cours de laquelle un objectif de modélisation linguistique a été utilisé pour définir les paramètres initiaux, et une phase d'entraînement supervisé, au cours de laquelle un objectif de modélisation linguistique a été défini. discriminatoire une phase de "réglage fin" au cours de laquelle ces paramètres sont adaptés à une tâche cible.

L'utilisation d'un transformateur Contrairement aux techniques précédentes impliquant des RNNs augmentés par l'attention, l'architecture de la GPT avec une mémoire plus structurée que celle qui pourrait être obtenue par des mécanismes récurrents, ce qui a permis d'obtenir des "performances de transfert robustes dans diverses tâches".

" Retour à l'index des glossaires
fr_FRFrançais