Je suis sûr que tout le monde a entendu parler de l'IA, l'intelligence artificielle développant la capacité des machines à comprendre et analyser les pensées humaines, et à imiter les comportements.
Mais je ne sais pas s'il en est de même pour l'IA générative, pour le NLP (traitement automatique du langage naturel) ou du NLM (Natural language model).
Je ne crois pas m'être déjà présenté à mes lecteurs et aux abonnés au cours des deux dernières années où j'ai eu l'occasion d'écrire dans ce journal. Je m'appelle Michael Emami. Je viens d'un milieu industriel et universitaire de haute technologie basé dans la Silicon Valley. Je travaille actuellement en tant que maître de conférences et professeur adjoint au département d'ingénierie de l'Université BAU Bahçeşehir à Istanbul tout en poursuivant mon doctorat.
Dans ce nouvel article, je m'éloigne de mes écrits habituels sur la philosophie de l'art. J'ai décidé d'explorer et de démystifier l'IA et ses sous-domaines actuels, tels que l'apprentissage automatique et l'apprentissage profond, en examinant le traitement du langage naturel dans cet article et plusieurs autres, car le genre est trop vaste pour être traité en une fois.
L'IA est la forme la plus avancée de technologie numérique qui existe depuis plusieurs décennies. L'intelligence artificielle a été inventée par John McCarthy et présentée en 1956 lors de la conférence de Dartmouth. Par définition, il s'agit d'une simulation du processus de l'intelligence humaine par des machines, bien qu'elles ne soient pas sensibles, qui ne peuvent pas penser par elles-mêmes mais nécessitent toujours une incitation humaine. Que nous le sachions ou non, nous utilisons cette technologie numérique très avancée dans notre vie quotidienne depuis des années, dans des applications telles que nos téléphones portables, nos voitures, nos médias sociaux et nos jeux vidéo. Pourtant, nous n'en sommes peut-être pas encore conscients.
Aujourd'hui, à l'ère mondiale du Big Data et de l'analyse des données d'entreprise, les informations basées sur notre utilisation d'Internet sont analysées sous forme de données et déchiffrées par l'IA pour nous permettre d'être plus efficaces et plus précis dans notre vie quotidienne à l'ère numérique. En réalité, l'intelligence artificielle (IA) fait référence à la simulation de l'intelligence humaine dans des machines programmées pour penser, apprendre et résoudre des problèmes comme les humains. Il s'agit de créer des algorithmes et des systèmes capables de percevoir leur environnement, de raisonner à son sujet et d'agir pour atteindre des objectifs spécifiques.
Comme je l'ai mentionné, l'intelligence artificielle englobe divers sous-domaines, tels que l'apprentissage automatique, le traitement du langage naturel, la vision par ordinateur, la robotique, etc. L'IA vise à développer des systèmes et des algorithmes pour les machines en utilisant des données entraînées pour effectuer des tà¢ches qui nécessitent généralement l'intelligence humaine, ce qui entraîne des progrès dans les domaines de la santé, de l'automatisation, du marketing et de la prise de décision humaine dans divers secteurs et domaines. Il est capable de fournir aux machines une intelligence capable d'imiter les processus de pensée humains, de s'adapter et de raisonner, et enfin, d'apporter des solutions aux tà¢ches complexes et, parfois, les plus simples pour rendre la vie humaine plus gérable.
Le concept de données d'apprentissage est essentiel pour déterminer le besoin fondamental d'améliorer la qualité des incitations et des réponses que nous recevons d'un LLM (Large Language Model), dont je parlerai dans mon prochain article.
Examinons maintenant la modélisation du langage naturel, ce qu'elle est et son importance pour comprendre la science qui sous-tend ce pouvoir pour les machines de nous imiter et de nous répondre. Si nous regardons l'histoire de la NLM, en 1966, un scientifique du MIT a développé un programme informatique appelé ELIZA.
ELIZA est le premier ordinateur de traitement du langage naturel créé pour simuler une conversation avec un être humain. La capacité d'Eliza à effectuer une correspondance de modèles repose sur l'accès à une énorme quantité de données de modèles prédéfinis, chacun associé à des réponses spécifiques. Ces modèles ont permis à ELIZA de maîtriser, de comprendre et de répondre au langage humain. Lorsque les humains s'engagent dans une conversation avec ELIZA, celui-ci analyse soigneusement leurs propos en tant que modèles de recherche d'entrée et mots-clés. Il transfère ensuite ces mots en une série de symboles en maîtrisant le modèle qui correspond à la conversation. Les modèles et les mots-clés sont transformés en symboles dans sa base de données, transformant vos mots en questions, déclarations, pensées et émotions. ELIZA a créé une atmosphère dans l'illusion de comprendre vos pensées et vos émotions, alors qu'en réalité, il ne faisait que suivre un ensemble de paramètres et de règles prédéfinis dans un programme simple comme méthode pour explorer la communication entre les humains et les machines.
L'empreinte d'ELIZA a été profonde dans le traitement du langage naturel et a ouvert la voie à des systèmes beaucoup plus avancés, que j'explorerai dans mon prochain article.
Michael Emami