Que disent les experts de l’IA en 2021 ?
L’IA et l’apprentissage automatique commencent enfin à prendre tout leur sens. Quelles tendances doit-on s’attendre à voir en 2021 ?
En 2012, des chercheurs de l’Université de Toronto ont souligné les résultats du concours annuel ImageNet pour les systèmes de vision par ordinateur qui ont dépassé de plus de 10 pour cent les autres programmes contemporains. La technique a utilisé l’apprentissage automatique (ML) utilisant des réseaux de neurones profonds (apprentissage en profondeur) et a marqué le véritable début des systèmes d’intelligence artificielle (IA).
Avance rapide jusqu’en 2020, les mondes des affaires commerciales et techniques ont montré de réels progrès dans le développement de systèmes d’IA plus complexes. Un exemple est l’offre publique récente et bien accueillie de C3.ai dans l’espace des entreprises. De plus, la technologie a mûri au point que l’US Air Force utilise l’IA pour la première fois à bord d’un avion militaire. Plus généralement, l’utilisation de l’IA pour l’analyse de données et les capacités prédictives a été l’un des principaux sujets de discussion en 2020 et ne fera qu’augmenter dans les années à venir.
Il est important de se rappeler que l’IA applique l’apprentissage automatique (ML), l’apprentissage en profondeur et d’autres techniques pour résoudre des problèmes réels. L’IA a figuré sur la liste des 10 meilleures tendances en matière de données et d’analyses de Gartner pour 2020. Cette liste citait le besoin d’une « IA plus intelligente, plus rapide et plus responsable », en particulier ceux qui cherchent à « faire des investissements essentiels pour se préparer à une réinitialisation post-pandémie ». En plus des effets de COVID-19 sur l’IA, la liste a souligné l’importance de l’IA en prédisant que, « d’ici la fin de 2024, 75% des entreprises passeront du pilotage à l’opérationnalisation de l’IA, entraînant une multiplication par 5 des données en streaming et infrastructures d’analyse.
Pour acquérir une perspective plus large sur les avantages et les défis de l’ère à venir de l’IA, Design News a contacté un éventail d’experts des secteurs du matériel électronique et des logiciels pour obtenir leur avis sur les tendances pour 2021 et au-delà. Ce qui suit est une partie de leurs idées.
Adobe Stock, Reconnaissance vocale
|
AI utilisé dans la reconnaissance vocale. |
Jem Davies, vice-président, membre d’Arm et directeur général du groupe d’apprentissage automatique d’Arm : L’intelligence artificielle (IA) et l’apprentissage automatique (ML) gagnent du terrain lorsque leur complexité passe au second plan. Plus de 1,5 milliard de personnes apprécient les algorithmes de ML lorsqu’elles prennent des photos de smartphone (ou les recherchent par la suite dans leurs fichiers photo en constante expansion) généralement sans le savoir. Le même phénomène se produit chaque fois que quelqu’un donne une commande à l’un des 353 millions de haut-parleurs intelligents déployés dans le monde.
Attendez-vous à voir l’invisibilité stimuler l’adoption de nombreuses applications. Le stationnement intelligent en un clic sera probablement la première expérience avec des voitures autonomes pour beaucoup. Les systèmes de sécurité capables de différencier avec précision le son d’un rôdeur à proximité et celui d’un raton laveur errant attireront les consommateurs.
Rich Fry, TDK Corporation of America : En 2021, nous continuerons de voir des gouvernements, des instituts de technologie et de recherche, ainsi que des entreprises de technologies de l’information et des communications ou des TIC regarder même au-delà de la 5G, répondant même aux besoins futurs à mesure que nous nous tournons vers la 6G (tout en mettant en œuvre et en déployant simultanément la 5G dans le vrai monde). Les principales mégatendances avançant vers la 6G incluent les machines connectées, l’utilisation de l’IA pour la communication sans fil, un partage accru des fréquences et du spectre et l’ouverture de la communication mobile.
Walden (Wally) C. Rhines, Ph.D. EE, PDG émérite de Mentor, une entreprise de Siemens, et président et PDG de Corami : Intelligence artificielle (IA) et machine learning (ML) les processeurs continueront d’être introduits pour fournir des alternatives non Von Neumann à l’apprentissage automatique. Pendant ce temps, Nvidia domine toujours les serveurs ML dédiés.
Chris Rowen, Ph.D. EE, PDG de BabbleLabs, Inc., ancien PDG de Tensilica : Le processus d’intégration de l’IA dans l’informatique de pointe continuera de se développer. De nouvelles capacités fondamentales dans le traitement vidéo de périphérie apparaîtront pour gérer les flux à bande passante trop élevée, trop privés et trop sensibles à la latence pour permettre le traitement dans le cloud. À l’inverse, l’apprentissage en profondeur à la périphérie pour les flux à faible bande passante, comme les flux audio et de capteurs, repoussera davantage les limites des fonctionnalités et moins les niveaux de calcul bruts. Nous nous attendons à un déploiement étendu de l’amélioration de la parole, de la reconnaissance et de l’analyse grâce à une latence, une confidentialité et un coût améliorés.
Scott Rust, BS EE, Senior VP of Product R&D chez NI : Les systèmes d’IA et de ML tireront parti des augmentations exponentielles de la puissance de calcul et du stockage de données pour combiner plus de données provenant de plus de sources et de manières plus nouvelles et novatrices. En 2021, nous verrons cela continuer à propulser l’état de l’art et permettre des prédictions plus précises à partir des modèles ML.
Robert Ruiz, BS EE, directeur marketing, analyse matérielle et test chez Synopsys : Au cours de l’année à venir et au-delà, la technologie de test poursuivra son rythme d’innovation accéléré, non seulement pour la fabrication, mais également pour de nouvelles applications au-delà des tests de fabrication. L’adoption récente et précoce d’un nouveau paradigme de test utilisant des ports d’E/S haute vitesse tels que USB et PCIe marque le début d’une tendance à augmenter considérablement la bande passante des données de test. Une telle bande passante change la donne, réduisant potentiellement le temps de test du silicium et le coût des tests d’un ordre de grandeur pour les processeurs graphiques et d’IA de nouvelle génération. Mais peut-être encore plus excitant est de savoir comment ce nouveau schéma, fournissant des données de test massives sur et hors puce, permettra d’autres applications.
Richard Wawrzyniak, analyste de marché principal, Semico Research Corp. : Depuis son apparition en 2012, les progrès dans le domaine de l’IA se sont poursuivis sans relâche à un rythme parfois vertigineux. Le taux de rotation des nouvelles innovations et approches architecturales devrait se produire tous les 3,5 mois, ce qui est beaucoup plus rapide qu’à d’autres périodes de l’histoire du marché des semi-conducteurs. Il y a deux grands domaines d’intérêt :
— Accélérateurs pour applications de centres de données : les travaux se poursuivent pour innover de nouvelles architectures de silicium pour des accélérateurs spécifiques à un domaine afin de faciliter la formation aux applications d’apprentissage en profondeur.
— Architectures d’inférence pour les solutions silicium Edge et End-Point : les exigences évolutives du marché pour traiter davantage de données plus près de l’application finale poussent les architectes silicium à augmenter la puissance du processeur et les ressources de calcul pour prendre en charge ces processeurs plus puissants dans les terminaux. En outre, la vision des fonctions de sécurité nécessaires est en cours de refonte pour intégrer des capacités de sécurité plus puissantes et plus robustes dans ces solutions.
JAYET, utilisé avec permission
|
Les ouvriers des usines de semi-conducteurs fabriquent des puces d’IA. |
Emmanuel Sabonnadière, Ph.D., PDG du CEA-Leti: Nous nous attendons à ce que l’électronique quantique, les dispositifs de conversion de puissance, les capteurs intelligents, Edge AI (intelligence artificielle) et les technologies vertes fassent partie des domaines de R&D les plus vitaux – et compétitifs – en microélectronique en 2021. L’année verra très certainement une accélération de la croissance déjà explosive du nombre d’objets connectés, via par exemple l’Internet des Objets, qui va se transformer en Intelligence des Objets. Ce phénomène nécessitera de nouvelles technologies pour exécuter le calcul Edge AI avec une très faible consommation d’énergie. Nous croyons fermement à l’émergence à court terme d’Edge AI, soutenue par des architectures neuro-inspirées et l’informatique en mémoire, qui est un concept disruptif.
Note de l’éditeur : en 2019, le CEA-LETI de France a annoncé une collaboration européenne clé en matière d’IA avec l’Institut de microélectronique au sein de la Fraunhofer Society en Allemagne. Les travaux des deux instituts sur les systèmes edge-AI renforcent la force du Leti dans la conception de puces silicium sur isolant entièrement appauvri (FD-SOI) et l’expertise de Fraunhofer et du Leti dans l’emballage 3D. Il est également probable qu’il s’appuiera sur la recherche architecturale finFET d’une autre centrale de R&D de l’UE, le belge Imec.
Analystes d’Omdia, recherche et rapport : Les investissements en IA d’entreprise augmenteront en 2021 à mesure que l’IA évolue vers l’échelle et l’opérationnalisation. Malgré la crise du COVID-19, 71% des personnes interrogées ont indiqué qu’elles étaient « confiantes » ou « très confiantes » que l’IA produira des résultats positifs en 2021 et au-delà. Au milieu de la perturbation du marché, l’optimisme reste pour les plates-formes d’IA et l’automatisation intelligente. Malgré les préoccupations imminentes des praticiens de l’IA en entreprise concernant l’évolutivité, la vitesse de mise sur le marché, la confidentialité, la sécurité, la sécurité et la responsabilité, il y a toujours des investissements en IA axés sur des technologies rigoureuses telles que MLOps et la gouvernance de l’IA pour une surveillance plus opérationnelle. .
Revue de Harvard business: L’intégration de modèles d’IA dans l’architecture technologique globale d’une entreprise a été un réel problème. Le composant manquant ici est AI Operations – ou « AIOps » pour faire court. Il s’agit d’une pratique consistant à créer, intégrer, tester, publier, déployer et gérer le système pour transformer les résultats des modèles d’IA en informations souhaitées par les utilisateurs finaux. À la base, AIOps se résume à avoir non seulement le bon matériel et les bons logiciels, mais aussi la bonne équipe : des développeurs et des ingénieurs possédant les compétences et les connaissances nécessaires pour intégrer l’IA dans les processus et systèmes existants de l’entreprise. Issu d’une ingénierie logicielle et d’une pratique visant à intégrer le développement logiciel et les opérations logicielles, il est la clé pour convertir le travail des moteurs d’IA en offres commerciales réelles et réaliser l’IA à grande échelle et de manière fiable.