Visual Behavior

Visual Behavior

  • Ingénieries Spécialisées, Intelligence artificielle / Machine Learning, Robotique
  • Lyon
  • Voir le site

L'équipe Tech

Nous développons une solution de vision artificielle à destinations des robots. Pour cela nous avons une équipe d'experts, de l'ingénieur en IA et développement de logiciel au PhD en machine learning. Nous développons des modèles qui permettent aux robots de mieux comprendre leur environnement.

Pour cela nous avons plusieurs challenges techniques:

  • Rechercher les blocs fondamentaux perméttant l'autonomie visuelle
  • Déployer nos applications en temps réel
  • Être capable de reposer sur du matériel embarqué

Nos techniques et outils:

  • Supersived, Self supervised learning, CNN & Transformers architecture.
  • Pytorch, Python, C++
Visual Behavior

Répartition des collaborateurs

  • Engineering

    25%

  • Research

    50%

  • Product

    25%

Technologies et outils

Backend

  • Python
    Python
    100%

Data

  • TensorRT
    TensorRT
    100%
  • Pytorch
    Pytorch
    100%

Python et Pytorch ⚙️

Nous reposons majoritairement sur Python et Pytorch pour la majorité de nos développements.

ONNX et TensorRT ⚙️

Pour la mise en production de nos modèles, nous utilisons ONNX et TensorRT

kernels CUDA ⚙️

Occasionnellement. nous reposons sur des kernels CUDA spécifiques pour une meilleure exécution de nos modèles.

Organisation et méthodologies

Au sein de l'équipe Visual Behavior, nous faisons des weekly progress avec tous les collaborateurs pour connaître les avancées individuelles des projets.

Il y a également un weekly progress pour la partie technique et scientifique pour les ingénieurs de la structure. Cela permet d'être plus spécifique sur les avancées des projets, d'avancer sur les bugs et d'avoir un échange constructif sur les améliorations qui pourraient être apportées.

Au sein des équipes, le but est de favoriser un libre-échange, toutes les idées sont les bienvenues, encouragées et récompensées.

Projets et défis techniques

  • Aloception
Aloception

Aloception

est un ensemble de modules pour la vision par ordinateur construits sur des bibliothèques d'apprentissage profond populaires : pytorch et pytorch lightning. Nous utilisons aloception en interne comme principale outils de développement. Cet outil est également open source et disponible sur notre github.

Il comprends trois packages:

  • Aloscene étend l'utilisation des tenseurs avec les tenseurs augmentés et les tenseurs augmentés spatiaux.
  • Alodataset implémente des jeux de données prêts à l'emploi pour la vision par ordinateur avec l'aide d'aloscene et des tenseurs augmentés pour faciliter la transformation et l'affichage de vos données de vision.
  • Alonet intègre plusieurs architectures de vision par ordinateur prometteuses.

Lien Github : https://github.com/Visual-Behavior/aloception

Processus de recrutement

Si vous souhaitez relever un défi technique de recherche et de production dans le domaine de la robotique, Visual behavior est l'un des meilleurs endroits en France.

Les étapes de recrutement:

1 - Entretien (15-30 min) 2 - Test technique 3 - Entretien final + rencontre avec l'équipe dans nos locaux pour un CDI

Apprenez-en plus sur Visual Behavior