AB

Bibliografia publikacji pracowników
Państwowej Szkoły Wyższej w Białej Podlaskiej

Baza tworzona przez Bibliotekę Akademii Bialskiej im. Jana Pawła II.



Zapytanie: PRE-TRAINING
Liczba odnalezionych rekordów: 2



Przejście do opcji zmiany formatu | Wyświetl/ukryj etykiety | Wyświetlenie wyników w wersji do druku | Pobranie pliku do edytora | Nowe wyszukiwanie
1/2
Nr opisu: 0000046870
Autorzy: Aliaksandr Kroshchanka, Vladimir Golovko, Shi Peiwen, Zofia Lubańska.
Tytuł pracy: Unsupervised Pre-training of Deep Neural Classifiers
Tytuł całości: W: Proceeding of the 12th IEEE International Conference on Intelligent Data Acquisition and Advanced Computing Systems: Technology and Applications (IDAACS; 2023), September 7-9, 2023, Drotmund, Germany, Vol. 1
Miejsce wydania: Piscataway
Wydawca: Institute of Electrical and Electronics Engineers Inc.
Rok wydania: 2023
Seria: Proceedings of the IEEE International Conference on Intelligent Data Acquisition and Advanced Computing Systems, 2770-4254
Strony zajęte przez pracę: S. 1083-1087
ISBN: 978-83-3503-5805-6
Charakterystyka formalna: rozdział w monografii zagranicznej
Charakterystyka merytoryczna: konferencja naukowa międzynarodowa
Charakterystyka wg MNiSW: rozdział w monografii z wykazu MEiN
Język publikacji: ENG
Słowa kluczowe ang.: Covolutional Restricted Boltzmann Machine ; deep neural network ; pre-training ; restricted Boltzmann Machine
Uwaga: Kopia dostępna w Sekcji Bibliometrii.
Streszczenie: The paper is devoted to studying the issues of pre-training of deep neural network models. A generalized approach for pre-training deep models is proposed, which allows achieving better performance in final accuracy and can be used when training on small datasets. The effectiveness of the proposed approach is demonstrated on examples of training deep neural slaccifiers models using the MNIST and CIFAR-10 datasets. The obtained results can be used to train fully connected and convolutional types of layers.

2/2
Nr opisu: 0000044457
Autorzy: Aliaksandr Kroshchanka, Vladimir Golovko.
Tytuł pracy: The Reduction of Fully Connected Neural Network Parameters Using the Pre-training Technique
Tytuł całości: W: IDAACS'2021 : proceedings of the 11th IEEE International Conference on Intelligent Data Acquisition and Advanced Computing Systems: Technology and Applications (IDAACS), September 22-25, 2021, Cracow, Poland, Vol. 2
Miejsce wydania: [Piscataway]
Wydawca: Institute of Electrical and Electronics Engineers (IEEE)
Rok wydania: 2021
Seria: Proceedings of the IEEE International Conference on Intelligent Data Acquisition and Advanced Computing Systems, 2770-4254
Strony zajęte przez pracę: P. 937-941
ISBN: 978-1-6654-2605-3
Charakterystyka formalna: rozdział w monografii zagranicznej
Charakterystyka merytoryczna: konferencja naukowa międzynarodowa
Charakterystyka wg MNiSW: rozdział w monografii z wykazu MEiN
Język publikacji: ENG
Słowa kluczowe ang.: computer vision ; deep neural networks ; pre-training ; reduction neural network parameters ; restricted Boltzmann Machine
Uwaga: Kopia dostępna w Sekcji Bibliometrii.
Inne bazy podające opis:
  • Scopus
  • WoS

    DOI: 10.1109/IDAACS53288.2021.9661015
    Streszczenie: This paper proposes an approach to the parameters reduction of fully connected neural networks using the conventional method of pre-training deep neural networks. It is shown that this approach makes it possible to reduce the number of trainable parameters without significant loss the generalization ability. The capabilities of the proposed technique are demonstrated using the standard dataset of handwritten digits MNIST.

      Wyświetl ponownie stosując format:
  • Wyświetl/ukryj etykiety | Wyświetlenie wyników w wersji do druku | Pobranie pliku do edytora | Nowe wyszukiwanie | Biblioteka AB