Přístupnostní navigace
E-přihláška
Vyhledávání Vyhledat Zavřít
Detail projektu
Období řešení: 1.1.2025 — 31.12.2027
Zdroje financování
Grantová agentura České republiky - Standardní projekty
O projektu
Moderní technologie umělé inteligence založené na hlubokých neuronových sítí (DNN) jako např. GPT jsou výpočetně extrémně náročné. Kromě toho, že spotřebují ohromné množství energie, to omezuje jejich nasazení ve vestavěných (koncových) zařízeních napájených bateriemi (např. chytré mobilní aplikace). LEDNeCo je projektem základního výzkumu, jehož ambicí je rozvoj paradigmatu nízkoenergetických hlubokých neurovýpočtů, který je založený na strojově nezávislé teorii energetické složitosti DNN vycházející z praktických zkušeností s návrhem různých hardwarových akcelerátorů DNN. Mj. budou odvozeny univerzální dolní meze energetické složitosti DNN a odhady inferenční chyby pro identifikaci komponent DNN (např. vah, neuronů, vrstev), jejichž aproximace je prokazatelně energeticky nejefektivnějsí. Teoretické poznatky budou použity v nových pokročilých aproximačních technikách (např. komprese vah, booleovská optimalizace, robustní aproximace komponent) návrhu hardwarových implementací DNN (vč. transformerů) s nízkou spotřebou energie, které budou testovány na referenčních datech.
Popis anglickyModern artificial intelligence technologies based on deep neural networks (DNNs) such as GPT are computationally extremely demanding. In addition to consuming an enormous amount of energy, this limits their deployment in battery-powered embedded (edge) devices (e.g. smart mobile apps). LEDNeCo is a project of basic research whose ambition is to develop a low-energy deep neurocomputing paradigm based on machine-independent energy complexity theory for DNNs, which issues from practical experience in the design of diverse DNN hardware accelerators. Among other things, universal lower bounds on energy complexity of DNNs and estimates of inference error will be derived for identifying DNN components (e.g. weights, neurons, layers) whose approximation is provably the most energy efficient. The achieved theoretical knowledge will be used in new advanced approximation techniques (e.g. weight compression, Boolean optimization, robust aproximation of components) for low-power hardware implementations of DNN (incl. transformer), which will be tested on benchmark datasets.
Klíčová slova hluboké neuronové sítě;transformery;energetická složitost;hardwarový akcelerátor;aproximační teorie;robustní učení;genetické programování
Klíčová slova anglickydeep neural networks;tranformers;energy complexity;hardware accelerator;approximation theory;robust learning;genetic programming
Označení
GA25-15490S
Originální jazyk
čeština
Řešitelé
Vašíček Zdeněk, doc. Ing., Ph.D. - hlavní řešitelKlhůfek Jan, Ing. - spoluřešitelMrázek Vojtěch, Ing., Ph.D. - spoluřešitelSekanina Lukáš, prof. Ing., Ph.D. - spoluřešitel
Útvary
Ústav počítačových systémů- odpovědné pracoviště (2.4.2024 - nezadáno)Ústav počítačových systémů- spolupříjemce (2.4.2024 - 31.12.2027)Ústav informatiky AV ČR, v.v.i.- příjemce (2.4.2024 - 31.12.2027)
Výsledky
KALKREUTH, R.; DE, O.; JANKOVIC, A.; ANASTACIO, M.; DIERKES, J.; VAŠÍČEK, Z.; HOOS, H. TinyverseGP: Towards a Modular Cross-domain Benchmarking Framework for Genetic Programming. Proceedings of the Genetic and Evolutionary Computation Conference Companion. Malaga: Association for Computing Machinery, 2025. p. 2172-2176. ISBN: 979-8-4007-1464-1.Detail
PLEVAČ, L.; VAŠÍČEK, Z. Towards Efficient Semantic Mutation in CGP: Enhancing SOMOk. Proceedings of the Genetic and Evolutionary Computation Conference Companion. Malaga: Association for Computing Machinery, 2025. p. 2172-2176. ISBN: 979-8-4007-1464-1.Detail
SEDLÁK, D.; KLHŮFEK, J.; MRÁZEK, V.; VAŠÍČEK, Z. Towards Efficient Scheduling of Transformer Neural Network Computation for Edge AI Deployment. Proceedings of the Genetic and Evolutionary Computation Conference Companion. Malaga: Association for Computing Machinery, 2025. p. 2242-2248. ISBN: 979-8-4007-1464-1.Detail
Odpovědnost: Vašíček Zdeněk, doc. Ing., Ph.D.