Documentations

Bienvenue sur la page Documentations de Contact IA PC Consulting.

  • AttendIA

Présentation PowerPoint AttendIA

Vidéo AttendIA

Brochure AttendIA

 

  • Fidelity Connect - Solution Centre de Contact Omnicanal

Vidéo de présentation Fidelity 5.0

Vidéo WhatsApp pour les Centres de Contact

Présentation PowerPoint Fidelity 5.0

             Brochure Fidelity 5.0

 

  • Recall – Enregistreurs professionnels de communications

Brochure Générale Recall

Présentation Powerpoint Recall

Brochure Recall IP pour Alcatel (solution certifiée par Alcatel)

Brochure Recall SIP

Des versions pour l’enregistrement de T0, T2 ou des postes IP propriétaires sont aussi disponibles (Avaya, Cisco, Mitel, Panasonic, Unify, etc)

 

  • CallXpress GO – Analyse de traffic

Présentation PowerPoint CALLXPRESS GO

Brochure CallXpress GO

 

 

C’est quoi un « token » ou « jeton » quand on parle d’intelligence artificielle générative ?

Avec l’IA générative, incarnée par des chatbots comme ChatGPT d’OpenAI et Le Chat de Mistral, on parle parfois de « token ». Savez-vous ce que ça signifie ? On vous explique tout ce qu’il faut savoir sur ces mystérieux jetons.

Bien souvent, lorsqu’on parle des grands modèles de langage, ou LLM dans le jargon (de l’anglais large language model), on définit leur performance avec le nombre de tokens qu’ils peuvent utiliser. Un terme flou pour le commun des mortels, mais qui décrit ce qui est le nerf de la guerre de l’IA : la course aux systèmes les plus puissants. Pourquoi parle-t-on de tokens alors ?

Qu’est-ce qu’un token (ou jeton) dans l’IA ?

Le mot token signifie en anglais jeton, tout simplement. Lorsqu’on parle d’intelligence artificielle générative, le terme est mobilisé pour parler d’une représentation élémentaire du texte qui est donné en entrée du système. Ce sont les tokens qui permettent à ces fameux LLM de « comprendre » et de générer du langage.

Il s’agit donc de mots, de parties de mots, voire de caractères ou de signes de ponctuation. En somme, le token est unité de sens. Lorsqu’on tape une requête en entrée dans un chatbot, celui-ci découpe en quelque sorte ce texte : c’est ce qu’on appelle la tokenisation (ou tokenization en anglais). C’est ce processus qui permet aux modèles d’IA d’analyser le langage.

Besoin de nos services de consulting ? Contactez-nous dès maintenant !

Nous sommes là pour répondre à vos besoins en analyse stratégique, gestion de projet et formations sur mesure.