Construire des assistants cognitifs à bas prix
ChatGPT prend le monde d’assaut ! C’est partout. Mes amis m’envoient constamment des exemples des choses fantastiques et inattendues que ChatGPT a faites. ChatGPT a atteint plus d’un million d’utilisateurs en seulement cinq jours.
Je ne suis pas surpris de la qualité de ChatGPT. Mais je un m étonné de l’incroyable croissance de la notoriété de ces outils au cours des deux derniers mois. Et cela m’a encouragé à aider tout le monde à comprendre comment ChatGPT et les grands modèles de langage auront un impact sur votre stratégie globale de connaissances et votre capacité à créer des assistants cognitifs pour tous vos travailleurs du savoir.
De nombreux lecteurs me considèrent comme un expert en stratégie d’adoption des graphes de connaissances d’entreprise. Cependant, j’ai suivi de près les grands modèles linguistiques pendant plusieurs années depuis que mon ami Ravi Kondadidi m’a convaincu de leur potentiel en 2019. J’ai commencé à écrire sur GPT et BERT pour aider les enseignants à générer Plans de cours STEM, des termes du glossaire et des questions à choix multiples. Et à chaque version, GPT s’est amélioré. Il est devenu plus facile de générer le bon contenu à partir d’une simple invite.
Maintenant, OpenAI a ajouté l’apprentissage par renforcement à ses flux de travail pour affiner à nouveau ses modèles. Les résultats ont été brillants. Et l’IA générative monte sur la courbe du battage médiatique jusqu’à des niveaux que je ne pensais pas possibles. Mais il est essentiel de faire une pause et de réfléchir à ce qui se passe ici et à l’impact de l’IA générative sur la productivité de nos travailleurs du savoir. La clé est d’apprécier que GPT peut être rapidement ajusté de manière rentable pour construire des agents cognitifs sur les connaissances générales pour des tâches répétitives spécifiques que les travailleurs du savoir effectuent.
La façon dont j’aimerais aborder cela est que nous comparions l’IA générative à la recherche sur Internet. Avant que nous ayons des moteurs de recherche comme Google et Bing, trouver des connaissances prenait beaucoup de temps. Nous avons dû conduire jusqu’à la bibliothèque et demander de l’aide au bibliothécaire de référence. Le bibliothécaire considérerait alors notre invite, y réfléchirait, poserait des questions de clarification, puis nous guiderait vers la bonne étagère de la bibliothèque.
Rechercher
Après la sortie des moteurs de recherche, nous dépendions moins de notre bibliothèque locale et des bibliothécaires. Nous pourrions saisir des mots clés dans Google, qui renverrait un classement récapitulatif des documents les plus pertinents et les plus populaires trouvés sur le Web. Nous avons ensuite dû faire défiler les documents, trouver le bon, puis ouvrir le document pour trouver l’information.
Bien que de nombreuses entreprises disposaient d’outils de recherche internes, elles n’étaient pas très douées pour récupérer les bons documents. Le contenu que vous avez vérifié il y a 10 minutes serait enterré 100 documents dans les résultats de la recherche. En conséquence, nos employés effectuaient généralement une recherche Google en premier et une recherche Sharepoint uniquement en dernier recours.
ChatGPT
Maintenant, avec des outils comme ChatGPT, notre monde a encore changé. Nous n’avons plus besoin d’ouvrir les fichiers et de trouver le bon fragment de texte. ChatGPT générera une réponse narrative détaillée pour nous. ChatGPT synthétise de nombreuses sources de connaissances différentes et forme un corps de texte cohérent complet avec des listes à puces, des exemples de code et des explications sur la façon d’installer les bibliothèques nécessaires pour utiliser le code. De plus, nous pouvons lui demander d’expliquer plus de détails dans l’invite suivante si nous avons besoin de plus d’informations.
Limites de la recherche
Examinons maintenant les problèmes fondamentaux des moteurs de recherche publics :
- Ils n’incluent pas votre organisation et vos documents personnels. Ils ne peuvent pas puiser dans vos notes et votre graphique des connaissances personnelles.
- Ils ne peuvent pas synthétiser les résultats ensemble dans un nouveau contenu.
L’IA générative s’entraîne sur de grandes collections de documents. Mais ils ne se contentent pas de créer des index inversés pour une recherche rapide. Ils construisent des réseaux de neurones qui génèrent encastrements pour les actes. Ces intégrations sont configurées de manière à ce que les connaissances soient stockées de manière cohérente sur la base de concepts, et pas seulement de mots-clés.
Des outils comme OpenAI GPT peuvent-ils aider ici ? La réponse est très certainement oui. Bien que ChatGPT ne dispose pas aujourd’hui d’un moyen d’être ajusté sur les documents de votre entreprise, le Les systèmes OpenAI GPT peuvent être facilement ajustés. La création d’un ensemble de paires de réponses rapides à partir de vos documents internes nous permet de créer des versions personnalisées de l’IA générative qui deviennent plus intelligentes à mesure que nous disposons de données.
Comment est-ce que tu fais ça? Vous travaillez avec chaque business unit pour comprendre ses principaux enjeux. Vous récoltez leurs documents et construisez des graphes de connaissances. Et lorsqu’ils ont des questions, vous les laissez les saisir dans une interface en langage naturel. Si vous pouvez répondre à la question en générant des documents simples, c’est la première étape. Si vous devez exécuter une requête, vous devez extraire les paramètres du document, exécuter la requête graphique et renvoyer les résultats dans le support approprié : texte, tableaux ou graphiques.
Chaque organisation Tech Forward aura des centaines d’assistants cognitifs qui aideront leurs travailleurs du savoir dans quelques années. Tout comme nos employés s’attendent à pouvoir accéder à Google, ils attendent des outils comme ChatGPT. Mais voici une grande différence : leurs futures versions de ChatGPT seront affinés sur leurs graphes de connaissances internes et personnels.
Les coûts de réglage fin de GPT sur le système Microsoft Azure sont actuellement évalués à environ 84 $/heure. 84 $ / heure semble élevé lorsque nous réalisons que nous pouvons utiliser les puissants nouveaux serveurs Habana Gaudi avec 8 HBU pour 13 $/heure. Au fur et à mesure que d’autres organisations construiront des ajusteurs GTP, le coût diminuera.
Dans le passé, les travailleurs du savoir étaient obligés d’utiliser des moteurs de recherche qui n’intégraient ni ne synthétisaient leurs connaissances. Désormais, chaque travailleur du savoir de votre organisation peut voir ses processus métier rationalisés à l’aide d’assistants cognitifs qui prennent en charge les questions en langage naturel et renvoient des connaissances synthétisées cohérentes.