Stacey Higginbotham écrit pour Fortune:
Nvidia a annoncé deux accélérateurs graphiques mardi, qui visent à aider les grandes entreprises comme Facebook, Baidu et Google à développer de nouveaux modèles de deep learning et puis déployer ces modèles à une échelle massive, sans nécessiter d’énormes et coûteuses fermes de serveurs branchées à leur propre centrale électrique.
L’article référence les nouvelles puces Tesla M40 et Tesla M4. Il pointe aussi vers la puce synaptique d’IBM, qui, je pense, est bien plus intéressante pour créer de l’IA qu’une architecture CUDA.
lundi 23 novembre 2015
Copyright © 2015-2018 Selected Links | RSS | Twitter | Liste de liens | Version anglaise