Filtry
wszystkich: 120
Najlepsze wyniki w katalogu: Potencjał Badawczy Pokaż wszystkie wyniki (95)
Wyniki wyszukiwania dla: NEURAL NETWORK TRAINING
-
Architektura Systemów Komputerowych
Potencjał BadawczyGłówną tematyką badawczą podejmowaną w Katedrze jest rozwój architektury aplikacji i systemów komputerowych, w szczególności aplikacji i systemów równoległych i rozproszonych. "Architecture starts when you carefully put two bricks together" - stwierdza niemiecki architekt Ludwig Mies von der Rohe. W przypadku systemów komputerowych dotyczy to nie cegieł, a modułów sprzętowych lub programowych. Przez architekturę systemu komputerowego...
-
Zespół Systemów Multimedialnych
Potencjał Badawczy* technologie archiwizacji, rekonstrukcji i dostępu do nagrań archiwalnych * technologie inteligentnego monitoringu wizyjnego i akustycznego * multimedialne technologie telemedyczne * multimodalne interfejsy komputerowe
-
Zespół Systemów Multimedialnych
Potencjał Badawczy* technologie archiwizacji, rekonstrukcji i dostępu do nagrań archiwalnych * technologie inteligentnego monitoringu wizyjnego i akustycznego * multimedialne technologie telemedyczne * multimodalne interfejsy komputerowe
Najlepsze wyniki w katalogu: Oferta Biznesowa Pokaż wszystkie wyniki (25)
Wyniki wyszukiwania dla: NEURAL NETWORK TRAINING
-
Brain and Mind Electrophysiology lab
Oferta BiznesowaNeurofizjologia pamięci i funkcji poznawczych mózgu
-
Laboratorium Badawcze 2-3
Oferta BiznesowaObliczenia komputerowe wymagające dużych mocy obliczeniowych z wykorzystaniem oprogramowania typu: Matlab, Tomlab, Gams, Apros.
-
Superkomputer Tryton
Oferta BiznesowaObliczenia dużej skali, Wirtualna infrastruktura w chmurze (IaaS), Analiza danych (big data)
Pozostałe wyniki Pokaż wszystkie wyniki (2785)
Wyniki wyszukiwania dla: NEURAL NETWORK TRAINING
-
Resource constrained neural network training
PublikacjaModern applications of neural-network-based AI solutions tend to move from datacenter backends to low-power edge devices. Environmental, computational, and power constraints are inevitable consequences of such a shift. Limiting the bit count of neural network parameters proved to be a valid technique for speeding up and increasing efficiency of the inference process. Hence, it is understandable that a similar approach is gaining...
-
Neural network training with limited precision and asymmetric exponent
PublikacjaAlong with an extremely increasing number of mobile devices, sensors and other smart utilities, an unprecedented growth of data can be observed in today’s world. In order to address multiple challenges facing the big data domain, machine learning techniques are often leveraged for data analysis, filtering and classification. Wide usage of artificial intelligence with large amounts of data creates growing demand not only for storage...
-
Comparative study of methods for artificial neural network training.
PublikacjaPrzedstawiono wyniki badań porównawczych następujących metod uczenia sieci neuronowych: propagacji wstecznej błędów, rekursywnej metody najmniejszych kwadratów, metody Zangwill'a i algorytmów ewolucyjnych. Badania dotyczyły projektowania adaptacyjnego regulatora neuronowego napięcia generatora synchronicznego.
-
The impact of the AC922 Architecture on Performance of Deep Neural Network Training
PublikacjaPractical deep learning applications require more and more computing power. New computing architectures emerge, specifically designed for the artificial intelligence applications, including the IBM Power System AC922. In this paper we confront an AC922 (8335-GTG) server equipped with 4 NVIDIA Volta V100 GPUs with selected deep neural network training applications, including four convolutional and one recurrent model. We report...
-
Benchmarking Deep Neural Network Training Using Multi- and Many-Core Processors
PublikacjaIn the paper we provide thorough benchmarking of deep neural network (DNN) training on modern multi- and many-core Intel processors in order to assess performance differences for various deep learning as well as parallel computing parameters. We present performance of DNN training for Alexnet, Googlenet, Googlenet_v2 as well as Resnet_50 for various engines used by the deep learning framework, for various batch sizes. Furthermore,...