Filters
total: 123
Best results in : Research Potential Pokaż wszystkie wyniki (95)
Search results for: neural network training
-
Architektura Systemów Komputerowych
Research PotentialGłówną tematyką badawczą podejmowaną w Katedrze jest rozwój architektury aplikacji i systemów komputerowych, w szczególności aplikacji i systemów równoległych i rozproszonych. "Architecture starts when you carefully put two bricks together" - stwierdza niemiecki architekt Ludwig Mies von der Rohe. W przypadku systemów komputerowych dotyczy to nie cegieł, a modułów sprzętowych lub programowych. Przez architekturę systemu komputerowego...
-
Zespół Systemów Multimedialnych
Research Potential* technologie archiwizacji, rekonstrukcji i dostępu do nagrań archiwalnych * technologie inteligentnego monitoringu wizyjnego i akustycznego * multimedialne technologie telemedyczne * multimodalne interfejsy komputerowe
-
Zespół Systemów Multimedialnych
Research Potential* technologie archiwizacji, rekonstrukcji i dostępu do nagrań archiwalnych * technologie inteligentnego monitoringu wizyjnego i akustycznego * multimedialne technologie telemedyczne * multimodalne interfejsy komputerowe
Best results in : Business Offer Pokaż wszystkie wyniki (28)
Search results for: neural network training
-
Brain and Mind Electrophysiology lab
Business OfferNeurofizjologia pamięci i funkcji poznawczych mózgu
-
Laboratorium Badawcze 2-3
Business OfferObliczenia komputerowe wymagające dużych mocy obliczeniowych z wykorzystaniem oprogramowania typu: Matlab, Tomlab, Gams, Apros.
-
Superkomputer Tryton
Business OfferObliczenia dużej skali, Wirtualna infrastruktura w chmurze (IaaS), Analiza danych (big data)
Other results Pokaż wszystkie wyniki (2874)
Search results for: neural network training
-
Resource constrained neural network training
PublicationModern applications of neural-network-based AI solutions tend to move from datacenter backends to low-power edge devices. Environmental, computational, and power constraints are inevitable consequences of such a shift. Limiting the bit count of neural network parameters proved to be a valid technique for speeding up and increasing efficiency of the inference process. Hence, it is understandable that a similar approach is gaining...
-
Neural network training with limited precision and asymmetric exponent
PublicationAlong with an extremely increasing number of mobile devices, sensors and other smart utilities, an unprecedented growth of data can be observed in today’s world. In order to address multiple challenges facing the big data domain, machine learning techniques are often leveraged for data analysis, filtering and classification. Wide usage of artificial intelligence with large amounts of data creates growing demand not only for storage...
-
Comparative study of methods for artificial neural network training.
PublicationPrzedstawiono wyniki badań porównawczych następujących metod uczenia sieci neuronowych: propagacji wstecznej błędów, rekursywnej metody najmniejszych kwadratów, metody Zangwill'a i algorytmów ewolucyjnych. Badania dotyczyły projektowania adaptacyjnego regulatora neuronowego napięcia generatora synchronicznego.
-
The impact of the AC922 Architecture on Performance of Deep Neural Network Training
PublicationPractical deep learning applications require more and more computing power. New computing architectures emerge, specifically designed for the artificial intelligence applications, including the IBM Power System AC922. In this paper we confront an AC922 (8335-GTG) server equipped with 4 NVIDIA Volta V100 GPUs with selected deep neural network training applications, including four convolutional and one recurrent model. We report...
-
Benchmarking Deep Neural Network Training Using Multi- and Many-Core Processors
PublicationIn the paper we provide thorough benchmarking of deep neural network (DNN) training on modern multi- and many-core Intel processors in order to assess performance differences for various deep learning as well as parallel computing parameters. We present performance of DNN training for Alexnet, Googlenet, Googlenet_v2 as well as Resnet_50 for various engines used by the deep learning framework, for various batch sizes. Furthermore,...