Sinequa Augments Companies with Release of New Generative AI Assistants. Learn more
Paris, France – New York, USA – June 22 2022 – Sinequa, leader de l’enterprise search, annonce aujourd’hui de nouvelles fonctionnalités avancées de recherche neuronale à sa Search Cloud Platform, offrant ainsi aux utilisateurs une pertinence et une précision de recherche sans précédent.
En tant que fonction optionnelle de la plateforme Search Cloud de Sinequa, Neural Search est la première solution disponible sur le marché à utiliser quatre modèles linguistiques de deep learning. Ces modèles sont pré-entraînés et opérationnels pour être utilisés en combinaison avec le traitement du langage naturel (NLP) et la recherche sémantique de Sinequa. Ils permettent, ainsi, une pertinence et une capacité de réponse aux questions, optimisées pour fonctionner efficacement même à grande échelle.
“La qualité et l’étendue de la recherche et de l’extraction d’informations sont depuis longtemps reconnues comme les principaux moteurs de la productivité, mais la pertinence est essentielle pour permettre une meilleure compréhension de l’activité et une prise de décision plus éclairée”, déclare Alexandre Bilger, président et CEO de Sinequa. “Avec les capacités de Neural Search de Sinequa, nous avons ajouté le meilleur de la recherche neuronale à notre recherche statistique existante. Cela améliore notre NLP, déjà affiné par une décennie d’expérience au service de grands groupes mondiaux et de leaders de l’innovation, avec quatre modèles de langage de deep learning de pointe et l’élasticité du cloud. La solution qui en résulte est la plus puissante IA disponible pour la recherche en entreprise.”
Les modèles de recherche neuronaux sont utilisés dans les recherches Internet par Google et Bing depuis 2019, mais les exigences de calcul les rendaient trop coûteux et trop lents pour la plupart des entreprises. Sinequa a optimisé les modèles et a collaboré avec les équipes Microsoft Azure et NVIDIA AI/ML pour fournir une infrastructure performante et rentable permettant de prendre en charge les charges de travail intensives de Neural Search en minimisant l’empreinte carbone. Neural Search est optimisé pour Microsoft Azure et les derniers GPU Tensor Core NVIDIA A10 ou A100 pour traiter efficacement de grandes quantités de données non structurées ainsi que les requêtes des utilisateurs.
Neural Search de Sinequa améliore la pertinence et est souvent capable de répondre directement aux questions en langage naturel. Pour ce faire, elle utilise des réseaux neuronaux qui vont au-delà de la recherche par mots pour mieux exploiter le sens et le contexte. La plateforme Search Cloud de Sinequa associe la recherche neuronale à son système étendu de NLP et de recherche statistique. Cette approche unifiée fournit des résultats de recherche plus précis et plus complets sur un éventail plus large de contenus et de cas d’utilisation.
Les quatre modèles de deep learning de Sinequa sont formés pour des tâches spécifiques et travaillent de concert pour obtenir la meilleure pertinence possible pour tout scénario d’entreprise. Les quatre modèles sont entièrement pré-entraînés, configurés et optimisés pour les contenus d’entreprise. Cela élimine le processus laborieux et coûteux de labelisation des training sets volumineux, des modèles de formation personnalisés et de leur mise à jour au fil du temps. Avec Neural Search de Sinequa, les entreprises peuvent désormais déployer rapidement et facilement des solutions intelligentes basées sur la recherche et dotées d’une technologie de pointe de deep learning.
“Sinequa se différencie par son utilisation du deep learning (réseaux neuronaux), en appliquant plusieurs modèles de deep learning pour fournir des résultats de recherche plus précis et plus pertinents”, écrit Alan Pelz-Sharpe de Deep Analysis dans un récent rapport.
Sinequa Neural Search est maintenant disponible en version bêta pour des clients remplissant les prérequis. La disponibilité commerciale est prévue plus tard dans l’année.