Alors je vais vous montrer un exemple avec un bot de test qu'on a fait avec nos amis de Bolton, sur les thons Rio Mare (leader du Thon en Italie et dans l'Adriatique 🦈🦈

Le but c'est de faire un bot qui vous permet de :

  1. lui envoyer une photo (un boite de thon ou de sardines par exemple)

  2. il analyse la photo via Computer Vision (celui de Microsoft) et essayer de trouver des mots

  3. s'il trouve le mot sardine, il vous envoie des recettes de sardines, s'il trouve le mot thon, il vous envoie des recettes de thon

C'est paarrrrti 🚀🚀

Ma compétence action a trois ressources comme 😀

Je chope l'image en validation (je demande pas de validation), et ensuite soit je trouve un mot soit je trouve rien.

Ma validation déclenche le workflow nommé "Vision" dès qu'on a une réponse :

Voyons de plus près ce workflow 🔎🔎

J'ai donc un webhook sur le computer vision de Microsoft en mot POST

Je lui donne simplement à manger l'URL de mon image soit {{tag.image.0.url}}

Eeeeet j'oublie pas de stocker la réponse en retour dans un string 👇👇

L'API de Computer Vision nous renvoie un JSON complet avec les mots trouvés.

Filtrer les réponses en fonction de la réponse de l'API

Je n'ai plus qu'à retourner dans ma ressource de réponse (compétence Vision).

Rionino a 4 type de produits (thon, saumon, sardine, crevettes).

Donc je rentre 4 message et 4 carrousels avec le contenu souhaité.

Je n'ai plus qu'à ajouter ensuite un filtre : vision_response contient {{nom du poisson}}

Ici un exemple avec le Thon ! 🚀🚀

Avez-vous trouvé votre réponse?