Hyperscale HW Optimized Neural Architecture Search (Google)

Hyperscale HW Optimized Neural Architecture Search (Google)

Kildeknude: 2600411

Et nyt teknisk papir med titlen "Hyperscale Hardware Optimized Neural Architecture Search" blev udgivet af forskere hos Google, Apple og Waymo.

"Dette papir introducerer den første Hyperscale Hardware Optimized Neural Architecture Search (H2O-NAS) til automatisk at designe nøjagtige og effektive maskinlæringsmodeller, der er skræddersyet til den underliggende hardwarearkitektur. H2O-NAS består af tre nøglekomponenter: en ny massivt parallel "one-shot" søgealgoritme med intelligent vægtdeling, som kan skaleres til søgerum på O(10280) og håndtere store mængder produktionstrafik; hardwareoptimerede søgerum til forskellige ML-modeller på heterogen hardware; og en ny to-faset hybrid præstationsmodel og en multi-objektiv belønningsfunktion optimeret til implementeringer i stor skala,” hedder det i avisen.

Find teknisk papir her. Udgivet marts 2023.

Sheng Li, Garrett Andersen, Tao Chen, Liqun Cheng, Julian Grady, Da Huang, Quoc V. Le, Andrew Li, Xin Li, Yang Li, Chen Liang, Yifeng Lu, Yun Ni, Ruoming Pang, Mingxing Tan, Martin Wicke, Gang Wu, Shengqi Zhu, Parthasarathy Ranganathan og Norman P. Jouppi. 2023. Hyperscale Hardware Optimized Neural Architecture Search. I Proceedings of the 28th ACM International Conference on Architectural Support for Programming Languages ​​and Operating Systems, bind 3 (ASPLOS 2023). Association for Computing Machinery, New York, NY, USA, 343–358. https://doi.org/10.1145/3582016.3582049


Tidsstempel:

Mere fra Semi Engineering