Metoda i system adaptacyjnego sterowania parametrami algorytmu syntezy niskich częstotliwości dźwięków muzycznych - Publication - Bridge of Knowledge

Search

Metoda i system adaptacyjnego sterowania parametrami algorytmu syntezy niskich częstotliwości dźwięków muzycznych

Abstract

W ostatnich latach można zaobserwować bardzo wyraźny i systematyczny wzrost wykorzystywania urządzeń mobilnych jako środka do odtwarzania muzyki, czy odtwarzania filmów w dowolnych warunkach akustycznych. Ich użytkownicy oczekują przy tym jak najlepszych walorów brzmieniowych dźwięku. W niniejszej rozprawie zostały zaproponowane metody, mające na celu poprawę brzmienia urządzeń mobilnych w zakresie niskich częstotliwości i korekcji barwy sygnału muzycznego z uwzględnieniem gatunku muzycznego oraz warunków akustycznych panujących w pomieszczeniu. W pierwszej kolejności przeprowadzono przegląd sposobów korekcji niskich częstotliwości oraz korekcji barwy dźwięku. Przedstawiono przyczyny ograniczeń w zakresie przenoszenia niskich częstotliwości przez urządzenia mobilne i wprowadzanych zniekształceń w odtwarzanym dźwięku. Zaproponowano i przetestowano na kilku bazach muzycznych metodę automatycznego rozpoznawania gatunków muzycznych, której skuteczność w kontekście znanych w literaturze wyników można uznać za wysoką i wystarczającą dla celów przypisania utworu muzycznego do danego gatunku muzycznego. Wykorzystano szereg algorytmów uczących, oceniono ich skuteczność, a także możliwość ich zastosowania w zbudowanej aplikacji. W celu potwierdzenia skuteczności proponowanych algorytmów korekcji dźwięku przeprowadzono szereg testów odsłuchowych, w których słuchacze oceniali jakość zmian dokonanych w sygnale muzycznym. Przenalizowano warunki akustyczne panujące w przykładowych wnętrzach i zaproponowano metodę korekcji sygnału muzycznego za pomocą korektora graficznego uwzględniającego akustykę pomieszczenia, w którym muzyka jest odtwarzana. Otrzymane wyniki przeprowadzonych badań potwierdziły, że uwzględnienie klasyfikacji gatunków muzycznych i akustyki pomieszczeń w procesie poprawy brzmienia sygnałów muzycznych podnosi subiektywną jakość dźwięku, a zaproponowane metody poprawy brzmienia niskich częstotliwości i korekcji barwy są lepiej oceniane od dotychczas znanych i stosowanych algorytmów.

Cite as

Full text

download paper
downloaded 966 times
Publication version
Accepted or Published Version
License
Creative Commons: CC-BY open in new tab

Keywords

Details

Category:
Thesis, nostrification
Type:
praca doktorska pracowników zatrudnionych w PG oraz studentów studium doktoranckiego
Language:
Polish
Publication year:
2019
Bibliography: test
  1. R. M. Aarts, E. Larsen , Efficient High-Frequency Bandwidth Extension of Music and Speech, 112 Audio Engineering Society Convention, Paper 5627, Munich, Germany, 2002
  2. R. M. Aarts, E. Larsen, Improving Perceived Bass and Reconstruction of High Frequencies for Band Limited Signals, Proc. IEEE Benelux Workshop on Model based Processing and Coding of Audio (MPCA- 2002), Leuven, Belgium, November 15, 2002
  3. L. Abanto, G. Kemper, J. Telles, A novel fuzzy logic-based metric for audio quality assessment: Objective audio quality assessment, CONATEL 2011, Catolica San Pablo, Arequipa, s. 1-10, 2011, DOI: 10.1109/CONATEL.2011.5958657 open in new tab
  4. M. Abe., Impairment of the Missing Fundamental Phenomenon in Individuals with Alzheimer's Disease: A Neuropsychological and Voxel- Based Morphometric Study, Dement. Geriatr. Cogn. Disord. Extra, t. 8, nr 1, s. 23-32, 2018, DOI: 10.1159/000486331 open in new tab
  5. Amazon.com: Amazon Music Unlimited, [Online], Dostępne na: https://www.amazon.com/gp/dmusic/promotions/AmazonMusicUnlimited [Dostęp: lipiec 2018]
  6. Y. Ando, Concert Hall Acoustics Based on Subjective Preference Theory, w Springer Handbook of Acoustics, T. D. Rossing, Red. New York, Springer New York, s. 351-386, 2007 open in new tab
  7. Y. Ando, Concert Hall Acoustics Based on Subjective Preference Theory, Springer Handbook of Acoustics, T. D. Rossing, Red. New York, Springer New York, s. 351-386, 2007 open in new tab
  8. Y. Ando, Opera House Acoustics Based on Subjective Preference Theory, t. 12, Tokyo, Springer Japan, 2015 open in new tab
  9. H. Arau-Puchades, U. Berardi, A Revised Sound Energy Theory Based on a New Formula for the Reverberation Radius in Rooms with Non- Diffuse Sound Field, Archive of Acoustics, t. 40, nr 1, s. 33-40, 2015 open in new tab
  10. M. Arora, S. Jang, H. Moon, Low Complexity Virtual Bass Enhancement Algorithm For Portable Multimedia Device, Audio Engineering Society Conference: 29th International Conference: Audio for Mobile and Handheld Devices, 2006
  11. Audioakustyka.org -Laboratorium Akustyki Fonicznej, [Online], Dostępne na: http://audioakustyka.org/ [Dostęp: listopad 2018] open in new tab
  12. AUDYSSEY MULTEQ EDITOR (aplikacja), [Online], Dostępne na: http://www.infoaudio.pl/artykul/1214,audyssey-multeq-editor-aplikacja, [Dostęp: sierpień 2018]
  13. M. Bai, C. Lin, Synthesis and Implementation of Virtual Bass System with a Phase-Vocoder Approach, t. 54, 2006
  14. J. G. Bazan, H. S. Nguyen, T. T. Nguyen, A. Skowron, J. Stepaniuk, Synthesis of Decision Rules for Object Classification, Incomplete Information: Rough Set Analysis, E. Orłowska, Red. Heidelberg: Physica-Verlag HD, s. 23-57, 1998, DOI: https://doi.org/10.1007/978-3- 7908-1888-8_2 open in new tab
  15. J. G. Bazan, M. S. Szczuka, J. Wróblewski, A New Version of Rough Set Exploration System, w Rough Sets and Current Trends in Computing, t. 2475, J. J. Alpigini, J. F. Peters, A. Skowron, N. Zhong, Red. Berlin, Heidelberg: Springer Berlin Heidelberg, s. 397-404, 2002, DOI: http://link.springer.com/10.1007/3-540-45813-1_52 open in new tab
  16. S. Bedyńska, A. Brzezicka-Rotkiewicz, Statystyczny drogowskaz: praktyczny poradnik analizy danych w naukach społecznych na przykładach z psychologii, Warszawa, Wydawnictwo Szkoły Wyższej Psychologii Społecznej "Academica", 2007
  17. D. Ben-Tzur, M. Colloms, The Effect of MaxxBass Psychoacoustic Bass Enhancement on Loudspeaker Design, 2012
  18. Benward, Saker, Music: In Theory and Practice, 7. wyd., t. 1. 2003
  19. L. Beranek, Acoustics, New York, American Institute of Physics for the Acoustical Society of America, 1986 open in new tab
  20. W. Berry, Structural functions in music, New York, Dover, 1987
  21. G. Békésy, Experiments in Hearing, 1989
  22. K. Bodlund, On the use of the integrated impulse response method for laboratory reverberation measurements, J. Sound Vib., t. 56, nr 3, s. 341-362, 1978, DOI: 10.1016/S0022-460X(78)80152-7 open in new tab
  23. V. Bogdanov, C. Woodstra, S. T. Erlewine, All music guide: the definitive guide to popular music, 4th ed. San Francisco: Backbeat Books/All Media Guide, 2001 open in new tab
  24. J. Boksa, Analogowe układy elektroniczne, Warszawa, Wydawnictwo BTC, 2007
  25. B. E. Boser, I. M. Guyon, V. N. Vapnik, A training algorithm for optimal margin classifiers, Proceedings of the fifth annual workshop on Computational learning theory -COLT '92, Pittsburgh, Pennsylvania, United States, s. 144-152, 1992, DOI: 10.1145/130385.130401 open in new tab
  26. BS.1534-3 : Method for the subjective assessment of intermediate quality levels of coding systems, [Online], https://www.itu.int/rec/R-REC- BS.1534/en [Dostęp: październik 2018] open in new tab
  27. BS.1770: Algorithms to measure audio programme loudness and true- peak audio level, [Online], Dostępne na: https://www.itu.int/rec/R-REC- BS.1770 [Dostęp: sierpień 2018] open in new tab
  28. Budowa ślimaka, [Online], Dostępne na: http://www.rci.rutgers.edu/~uzwiak/AnatPhys/Sensory_Systems.html [Dostęp: sierpień 2018] open in new tab
  29. CATT-A Users' Page, [Online], Dostępne na: http://www.catt.se/users.htm [Dostęp: listopad 2018]
  30. S. Cecchi, E. Moretti, F. Piazza, A New Approach to Bass Enhancement Based on Prony's Method, 2007 15th International Conference on Digital Signal Processing, s. 535-538, 2007 open in new tab
  31. D. Chathuranga, L. Jayaratne, Automatic Music Genre Classification of Audio Signals with Machine Learning Approaches, GSTF J. Comput. JoC, t. 3, nr 2, 2013, DOI: 10.7603/s40601-013-0014-0 open in new tab
  32. K. Choi, G. Fazekas, M. Sandler, K. Cho, Convolutional recurrent neural networks for music classification, 2017 IEEE International Conference on Acoustics, Speech and Signal Processing (ICASSP), New Orleans, LA, s. 2392-2396, 2017, DOI:10.1109/ICASSP.2017.7952585 open in new tab
  33. C. L. Christensen, G. Koutsouris, J. Gil, ODEON Room Acoustics Software, s. 224, 2015
  34. Co to jest deep learning i jak możemy go wykorzystać? [Online], Dostępne na: https://blog.edrone.me/pl/co-to-jest-deep-learning-i-jak- mozemy-go-wykorzystac/ [Dostęp: wrzesień 2018] open in new tab
  35. Y. M. G. Costa, L. S. Oliveira, A. L. Koerich, F. Gouyon, J. G. Martins, Music genre classification using LBP textural features, Signal Processing, t. 92, nr 11, s. 2723-2737, 2012, DOI: 10.1016/j.sigpro.2012.04.023 open in new tab
  36. Częstotliwości instrumentów muzycznych, [Online], Dostępne na: https://www.gear4music.pl/pl/Nagrywanie-i-komputery/dbx-555-5-Band- Parametric-EQ/1GWL [Dostęp: sierpień 2018]
  37. A. Czyżewski, A. Ciarkowski, B. Kostek, J. Kotus, P. Suchomski, Adaptive Personal Tuning of Sound in Mobile Computers, J. Audio Eng. Soc., t. 64, nr 6, s. 405-428, 2016, DOI:10.17743/jaes.2016.0014 open in new tab
  38. Deezer, [Online], Dostępne na: http://www.deezer.com [Dostęp: lipiec 2018] open in new tab
  39. E. Didiot, I. Illina, D. Fohr, O. Mella, A wavelet-based parameterization for speech/music discrimination, Comput. Speech Lang., t. 24, nr 2, s. 341-357, kwi. 2010, DOI:10.1016/j.csl.2009.05.003 open in new tab
  40. W. Dixon, Psychoacoustics In Audiometry: Principles and Practices, Huntington: N.Y., R. E. Krieger Pub. Co., 1977
  41. M. Drobner, Akustyka muzyczna, Warszawa, Polskie Wydawnictwo Muzyczne, 1973
  42. EBU Technology & Innovation -Loudness normalisation and permitted maximum level of audio signals, [Online], Dostępne na: https://tech.ebu.ch/publications/r128 [Dostęp: sierpień 2018] open in new tab
  43. S. ECP, Mastering i Studio dźwięku, [Online], Dostępne na: http://www.studiomastering.net/mastering03.html [Dostęp: sierpień 2018]
  44. Encyklopedia PWN, [Online], Dostępne na: https://encyklopedia.pwn.pl [Dostęp: listopad 2018]
  45. A. Everest, Podręcznik Akustyki, Katowice, Wydawnictwo Sonia Draga sp. z.o.o, 2004
  46. Every Noise at Once, [Online], Dostępne na: http://everynoise.com/engenremap.html [Dostęp: lipiec 2018] open in new tab
  47. T. Fawcett, An introduction to ROC analysis, Pattern Recognition Lett., t. 27, nr 8, s. 861-874, 2006, DOI:10.1016/j.patrec.2005.10.010 open in new tab
  48. C. Field, S. Shimada, Acoustic Computer Modelling: A Case Study to Compare Predictions by CATT and Odeon with Measured Results, The 195
  49. Congress and exposition on noise control engineering, Brazil, 2005 open in new tab
  50. FuzzyLite, [Online], Dostępne na: https://www.fuzzylite.com [Dostęp: sierpień 2018] open in new tab
  51. W.-S. Gan, N. Oo, Harmonic and Intermodulation Analysis of Nonlinear Devices Used in Virtual Bass Systems, 124 Audio Engineering Society Convention, 2008
  52. B. Gerstle, Tunable Virtual Bass Enhancement, s. 5, 2009
  53. Głośnik wszech-kierunkowy Bruel & Kjaer 4292, [Online], Dostępne na: https://www.bksv.com/en/products/transducers/acoustic/sound- sources/omni-power-light-4292 [Dostęp: czerwiec 2018] open in new tab
  54. R. L. Gorsuch, Factor analysis, 2nd ed. Hillsdale, L. Erlbaum Associates, 1983
  55. A. J. H. Goulart, R. C. Guido, C. D. Maciel, Exploring different approaches for music genre classification, Egypt. Inform. J., t. 13, nr 2, s. 59-63, 2012, DOI: 10.1016/j.eij.2012.03.001 open in new tab
  56. P. Guidorzi, L. Barbaresi, D. D'Orazio, M. Garai, Impulse Responses Measured with MLS or Swept-Sine Signals Applied to Architectural Acoustics: An In-depth Analysis of the Two Methods and Some Case Studies of Measurements Inside Theaters, Energy Procedia, t. 78, s. 1611-1616, 2015, DOI: 10.1016/j.egypro.2015.11.236 open in new tab
  57. Gztan Database, [Online], Dostępne na: http://marsyas.info/downloads/datasets.html [Dostęp: sierpień 2018]
  58. B. Haduch, R. Tadeusiewicz, AGH Akademia Górniczo-Hutnicza, Wykorzystanie sieci neuronowych w dochodzeniach związanych z przestępczością gospodarczą na rynku paliw płynnych. Część 1, Nafta- Gaz, t. 73, nr 12, s. 974-979, 2017, DOI: 10.18668/NG.2017.12.09 open in new tab
  59. M. H. Hayes, Digital signal processing, 2nd ed. New York, NY: McGraw Hill, 2012
  60. S. S. Haykin, S. S. Haykin, Neural networks and learning machines, 3rd ed. New York, Prentice Hall, 2009
  61. Henkjan Honing, Structure and Interpretation of Rhythm and Timing, Tijdschr. Voor Muziektheorie, t. 7, nr 3, 2002 open in new tab
  62. C. F. Higham, D. J. Higham, Deep Learning: An Introduction for Applied Mathematicians, 2018, DOI: http://arxiv.org/abs/1801.05894 open in new tab
  63. A. J. Hill, M. O. J. Hawksford, A hybrid virtual bass system for optimized steady-state and transient performance, 2010 2nd Computer Science and Electronic Engineering Conference (CEEC), s. 1-6, 2010 open in new tab
  64. A. J. Hill, M. O. J. Hawksford, A hybrid virtual bass system for optimized steady-state and transient performance, 2010 2nd Computer Science and Electronic Engineering Conference (CEEC), Colchester, United Kingdom, 2010, DOI: 10.1109/CEEC.2010.5606489 open in new tab
  65. A. J. Hill, M. O. J. Hawksford, P. Newell, Enhanced Wide-Area Low- Frequency Sound Reproduction in Cinemas: Effective and Practical Alternatives to Current Calibration Strategies, J. Audio Eng. Soc., t. 64, nr 5, s. 280-298, 2016, DOI: http://www.aes.org/e- lib/browse.cfm?elib=18134 open in new tab
  66. P. Hoffmann, B. Kostek, Subjective perception of music genres in the field of music information retrieval systems, 15th International Symposium on New Trends in Audio and Video, Wrocław, s. 1-7, 2014.
  67. P. Hoffmann, B. Kostek, Bass Enhancement Settings in Portable Devices Based on Music Genre Recognition, J. Audio Eng. Soc., t. 63, nr 12, s. 980-989, sty. 2016, DOI: 10.17743/jaes.2015.0087 open in new tab
  68. P. Hoffmann, T. Sanner, Projekt nagłośnienia sali teatralnej w oparciu o system modelowania akustycznego, praca magisterska, Politechnika Gdańska, WETI, Gdańsk, 2012
  69. E. Hojan, Zasady nagłaśniania pomieszczeń i przestrzeni otwartej. Poznań, Wydawnictwo Naukowe UAM, 2003
  70. D. W. Hosken, An introduction to music technology, New York, Routledge, 2011 open in new tab
  71. Immerse Yourself in 3D Surround DTS:XTM -Yamaha -Canada - English, [Online], Dostępne na: https://ca.yamaha.com/en/products/contents/audio_visual/dtsx/index.ht ml [Dostęp: sierpień 2018]
  72. ISMIS 2011 Contest: Music Information Retrieval | TunedIT, [Online], Dostępne na: http://tunedit.org/challenge/music-retrieval [Dostęp: sierpień 2018] [72] iTunes - Apple (Polska), [Online], Dostępne na: https://www.apple.com/pl/itunes/download [Dostęp: lipiec 2018] open in new tab
  73. K. Jambrosic, M. Horvat, H. Domitrovic, Reverberation time measuring methods, J. Acoust. Soc. Am., t. 123, nr 5, s. 3617-3617, 2008, DOI: 10.1121/1.2934829 open in new tab
  74. N. Jillings, D. Moffat, B. De Man, J. Reiss, R. Stables, Web Audio Evaluation Tool: A framework for subjective assessment of audio, 2nd
  75. Web Audio Conference (WAC-2016), Atlanta, 2016 open in new tab
  76. A. Kania, The Philosophy of Music, Edward N. Zalta, 2014 open in new tab
  77. Y.-K. Ki, N.-W. Heo, J.-W. Choi, G.-H. Ahn, K.-S. Park, An incident detection algorithm using artificial neural networks and traffic information, 2018 Cybernetics & Informatics (K&I), Lazy pod Makytou, s. 1-5, 2018, DOI: 10.1109/CYBERI.2018.8337551 open in new tab
  78. H.-G. Kim, N. Moreau, T. Sikora, MPEG-7 audio and beyond: audio content indexing and retrieval, Chichester, West Sussex, England, Hoboken, NJ, USA, J. Wiley, 2005 open in new tab
  79. C. S. Kindig, Room acoustics for home audio, [Online], Dostępne na: https://www.crutchfield.com/I- rFBKcVSL/learn/learningcenter/home/speakers_roomacoustics.html [Dostęp: sierpień 2018]
  80. P. Kirn, J. Dobrzański, M. Pająk, D. Lehun, Real world digital audio: profesjonalne techniki produkcji dźwięku : edycja polska, Gliwice, Wydawnictwo Helion, 2007
  81. P. Knees, M. Schedl, Music Retrieval and Recommendation: A Tutorial Overview, 38th International ACM SIGIR Conference on Research and Development in Information Retrieval, s. 1133-1136, 2015 open in new tab
  82. M. A. Korany, H. Mahgoub, O. T. Fahmy, H. M. Maher, Application of artificial neural networks for response surface modelling in HPLC method development, J. Adv. Res., t. 3, nr 1, s. 53-63, sty. 2012, DOI: 10.1016/j.jare.2011.04.001 open in new tab
  83. J. Korbicz, A. Obuchowicz, D. Uciński, Sztuczne sieci neuronowe: podstawy i zastosowania, Warszawa, Akademicka Oficyna Wydawnicza PLJ, 1994
  84. Korektor graficzny, [Online], Dostępne na: https://guitarcenter.pl/catalog/naglosnienie/procesory/korektory/bss-fcs- 966 [Dostęp: sierpień 2018] open in new tab
  85. Korektor parametryczny, [Online], Dostępne na: https://www.gear4music.pl/pl/Nagrywanie-i-komputery/dbx-555-5-Band- Parametric-EQ/1GWL [Dostęp: sierpień 2018]
  86. J. Koronacki, J. Ćwik, Statystyczne systemy uczące się, WTN, 2005
  87. B. Kostek, Music Information Retrieval -Soft Computing Versus Statistics, Computer Information Systems and Industrial Management, t. 9339, K. Saeed, W. Homenda, Red. Cham: Springer International Publishing, s. 36-47, 2015, DOI: 10.1007/978-3-319-24369-6_3 open in new tab
  88. B. Kostek, Perception-based data processing in acoustics: applications to music information retrieval and psychophysiology of hearing. Berlin, New York, Springer, 2005 open in new tab
  89. B. Kostek, A. Czyżewski, P. Hoffmann, Sposób modyfikacji częstotliwościowej sygnału dźwiękowego i układ do modyfikacji częstotliwościowej sygnału dźwiękowego, Zgłoszenie patentowe EP15460077, Europejski Urząd Patentowy, 23-09-2015
  90. B. Kostek, A. Kupryjanow, P. Żwan i in., Report of the ISMIS 2011 Contest: Music Information Retrieval, Foundations of Intelligent Systems, t. 6804, Berlin, Heidelberg: Springer Berlin Heidelberg, s. 715-725,2011, DOI: 10.1007/978-3-642-21916-0_75 open in new tab
  91. B. Kostek, P. Hoffmann, Music Data Processing and Mining in Large Databases for Active Media, ACTIVE MEDIA TECHNOLOGY, AMT 2014, Warszawa, 2014
  92. B. Kostek, P. Hoffmann, T. Sanner, Sposób poprawy jakości brzmienia dźwięku w przenośnych urządzeniach elektronicznych i układ do realizacji tego sposobu, P 225364, UP RP (Urząd Patentowy Rzeczpospolitej Polskiej), przyznany: wrzesień 2016
  93. B. Kostek, P. Hoffmann, T. Sanner, Sposób i układ realizujący poprawę jakości brzmienia dźwięku w przenośnych urządzeniach elektronicznych, zgłoszenie patentowe 408563, UP RP, data zgł. 16.04.2014
  94. B. Kostek, P. Hoffmann, P. Spaleniak, A. Kaczmarek, Wyszukiwarka nagrań muzycznych -Serwis muzyczny Synat, Przegląd Telekomun. Wiad. Telekomun., t. 8-9, 2013 open in new tab
  95. B. Kostek, P. Hoffmann, P. Spaleniak, A. Kaczmarek, Creating a Reliable Music Discovery and Recommendation System, Intelligent Tools for Building a Scientific Information Platform: From Research to Implementation, Springer Verlag, 2014 open in new tab
  96. J. Krajewski, Głośniki i zestawy głośnikowe: budowa, działanie, zastosowania, Warszawa, Wydawnictwa Komunikacji i Łączności, 2008
  97. E. R. Larsen, R. Aarts, Audio bandwidth extension: application of psychoacoustics, signal processing and loudspeaker design, Chichester, West Sussex, England, Hoboken, Wiley, 2004 open in new tab
  98. E. Larsen, R. Aarts, Perceiving low pitch through small loudspeakers, 108 Audio Engineering Society Convention, Paris, 2000 open in new tab
  99. E. Larsen, R. Aarts, Reproducing Low-Pitched Signals through Small Loudspeakers, J. Audio Eng. Soc., t. 50, nr 3, s. 147-164, 2002
  100. Last.fm | Odtwarzaj muzykę, znajduj utwory i odkrywaj wykonawców, [Online], Dostępne na: https://www.last.fm/pl/ [Dostęp: lipiec 2018] open in new tab
  101. T. Lenc, P. E. Keller, M. Varlet, S. Nozaradan, Neural tracking of the musical beat is enhanced by low-frequency sounds, Proc. Natl. Acad. Sci., t. 115, nr 32, s. 8221-8226, 2018, DOI: 10.1073/pnas.1801421115 open in new tab
  102. A. Kurowski, P. Kryger, Implementacja i testowanie algorytmu poprawy brzmienia niskich częstotliwości miniaturowych przetworników elektroakustycznych (ang. Virtual Bass Synthesis), projekt inżynierski, Politechnika Gdańska, WETI, 2013
  103. T. Li, M. Ogihara, Q. Li, A comparative study on content-based music genre classification, Proceedings of the 26th annual international ACM SIGIR conference on Research and development in informaion retrieval -SIGIR '03, Toronto, Canada, s. 282, 2003, DOI: 10.1145/860435.860487 open in new tab
  104. A. T. Lindsay, J. Herre, MPEG-7 and MPEG-7 Audio'An Overview, J Audio Eng. Soc., t. 49, nr 7/8, s. 589-594, 2001
  105. M. Liu, C. Wan, L. Wang, A Fuzzy Logic Approach for Content-Based Audio Classification and Boolean Retrieval, Fuzzy Logic and the Internet, t. 137, V. Loia, M. Nikravesh, L. A. Zadeh, Red. Berlin, Heidelberg: Springer Berlin Heidelberg, s. 135-156, 2004, DOI: 10.1007/978-3-540-39988-9_7 open in new tab
  106. K. Łopatka, A. Czyżewski, B. Kostek, Improving listeners' experience for movie playback through enhancing dialogue clarity in soundtracks, Digital Signal Processing, t. 48, s. 40-49, 2016, DOI: 10.1016/j.dsp.2015.08.015 open in new tab
  107. E. A. Lopez-Poveda, A. R. Palmer, R. Meddis, The Neurophysiological Bases of Auditory Perception. New York, Springer New York, 2010 open in new tab
  108. G. Marcus, "Deep Learning: A Critical Appraisal", s. 27, 2015
  109. MATLAB - MathWorks, [Online], Dostępne na: https://www.mathworks.com/products/matlab.html [Dostęp: sierpień 2018] open in new tab
  110. Y. Matsuwaki i in., Evaluation of missing fundamental phenomenon in the human auditory cortex, Auris, Nasus. Larynx, t. 31, nr 3, s. 208- 211, 2004, DOI: 10.1016/j.anl.2004.03.016 open in new tab
  111. MaxxBass -Bass Enhancer Plugin | Waves, [Online], Dostępne na: https://www.waves.com/plugins/maxxbass [Dostęp: październik 2018]
  112. B. McFee, T. Bertin-Mahieux, D. P. W. Ellis, G. R. G. Lanckriet, The million song dataset challenge, Proceedings of the 21st international conference companion on World Wide Web -WWW '12 Companion, Lyon, France, s. 909, 2012, doi: 10.1145/2187980.2188222 open in new tab
  113. M. Meissner, The effect of modal localization on reverberant energy decay in a case of two acoustically coupled rooms, Archives of Acoustics, t. 31, nr 4, s. 239-245, 2006 open in new tab
  114. A. Mielczarek, The threshold of the residual pitch in three-component inharmonic stimuli, Archives of Acoustics, nr 31, s. 425-429, 2006
  115. A. Mielczarek, A. Dobrucki, Detecting of Residual Pitch in Two- Component Complexes, Forum Acusticum, Budapest, 2005 open in new tab
  116. Mody drgań -niskie częstotliwości w pomieszczeniach, [Online], Dostępne na: https://livesound.pl/tutoriale/4381-mody-drgan-niskie- czestotliwosci-w-pomieszczeniach [Dostęp: sierpień 2018]
  117. Moon Han-gil, Arora, Manish, Chung, Chiho, Enhanced Bass Reinforcement Algorithm for Small-sized Transducer, Vienna, 2007
  118. B. C. J. Moore, Hearing, Academic Press, San Diego, 1995
  119. G. A. Moore, B. Moore, Perception of the low pitch of frequency-shifted complexes, J. Acoust. Soc. Am. 2003, Feb;113(2):977-85.2003 open in new tab
  120. B. C. J. Moore, R. D. Patterson, I. M. Winter, R. P. Carlyon, H. E. Gockel, Basic Aspects of Hearing, t. 787, New York, Springer New York, 2013 open in new tab
  121. H. Mu, W.-S. Gan, E.-L. Tan, A psychoacoustic bass enhancement system with improved transient and steady-state performance, 2012 IEEE International Conference on Acoustics, Speech and Signal Processing (ICASSP), s. 141-144, Kyoto, Japan, 2012 open in new tab
  122. S. Murakami, Application of Fuzzy Controller to Automobile Speed Control System, IFAC Proc. Vol., t. 16, nr 13, s. 43-48, 1983, DOI:10.1016/S1474-6670(17)62003-2 open in new tab
  123. MUSHRA -Sound Data Management Training -Sound Software .ac.uk, [Online], Dostępne na: https://code.soundsoftware.ac.uk/projects/sodamat/wiki/MUSHRA [Dostęp: październik 2018]
  124. Music Genre List -A complete list of music styles, types and genres, [Online], Dostępne na: http://www.musicgenreslist.com/ [Dostęp: lipiec 2018] open in new tab
  125. Muzyka, Apple (Polska), [Online], Dostępne na: https://www.apple.com/pl/music/ [Dostęp: lipiec 2018]
  126. Muzyka Google Play, [Online], Dostępne na: https://play.google.com/music/listen#/sulp [Dostęp: lipiec 2018]
  127. Muzykowanie przez zagłuszanie, Głośniej się już nie da -Polityka.pl, [Online], Dostępne na: https://www.polityka.pl/tygodnikpolityka/swiat/247335,1,muzykowanie- przez-zagluszanie.read [Dostęp: lipiec 2018]
  128. M. M. Najafabadi, F. Villanustre, T. M. Khoshgoftaar, N. Seliya, R. Wald, E. Muharemagic, Deep learning applications and challenges in big data analytics, J. Big Data, t. 2, nr 1, 2015, DOI: http://arxiv.org/abs/1801.05894 open in new tab
  129. O. Nay, Woon-Seng Gan, Harmonic analysis of nonlinear devices for virtual bass system, 2008 International Conference on Audio, Language and Image Processing, Shanghai, China, s. 279-284, 2008, DOI:10.1109/ICALIP.2008.4590264 open in new tab
  130. D. Necsulescu, Wei Zhang, W. Weiss, J. Sasiadek, Room Acoustics Measurement System Design Using Simulation and Experimental Studies, IEEE Trans. Instrum. Meas., t. 58, nr 1, s. 167-172, 2009, DOI: 10.1109/TIM.2008.926043 open in new tab
  131. R. Neubauer, B. Kostek, Prediction of the reverberation time in rectangular rooms with non-uniformly distributed sound absorption, Archives of Acoustics, t. 26, nr 3, 2001 open in new tab
  132. P. R. Newell, Recording studio design, Oxford, Waltham, Mass., Focal, 2012 open in new tab
  133. Norma PN-EN ISO 3382-1:2009 Akustyka -Pomiar parametrów akustycznych pomieszczeń. Część 1: Pomieszczenia specjalne
  134. Norma PN-EN ISO 3382-2:2009, Akustyka -Pomiar parametrów akustycznych pomieszczeń. Część 1: Czas pogłosu w zwykłych pomieszczeniach
  135. OpenCV library, [Online], Dostępne na: https://opencv.org/ [Dostęp: pażdziernik 2018] open in new tab
  136. S. J. Orfanidis, Introduction to signal processing. Englewood Cliffs, Prentice Hall, 1996
  137. J. Osmalskyj, V. Droogenbroeck, J. Embrechts, Performances of low--- level audio classifiers for large-scale music similarity, International Conference on Systems, Signals and Image Processing, 2015 open in new tab
  138. P.800 : Methods for subjective determination of transmission quality, [Online], Dostępne na: https://www.itu.int/rec/T-REC-P.800-199608- I/en [Dostęp: wrzesień 2018] open in new tab
  139. Z. Pawlak, Rough Sets: Theoretical Aspects of Reasoning about Data, Dordrecht, Springer Netherlands, Imprint, Springer, 1991, DOI: http://public.eblib.com/choice/publicfullrecord.aspx?p=3105020 open in new tab
  140. M. Petitti, Elizabeth, A fundamental residue pitch perception bias for tone language speakers, OpenBU, 2015
  141. A. Piegat, Fuzzy modeling and control, Heidelberg, New York: Physica- Verlag, 2001 open in new tab
  142. C. J. Plack, A. J. Oxenham, R. R. Fay, Red., Pitch: neural coding and perception. New York, Springer, 2005 open in new tab
  143. PN-EN ISO 18233:2006 -wersja angielska, [Online]. open in new tab
  144. L. Polkowski, A. Skowron, Rough sets and current trends in computing: first international conference, RSCTC '98, Warsaw, Poland, June 22- 26, 1998, Proceedings, Berlin, New York: Springer, 1998 open in new tab
  145. L. Polkowski, A. Skowron, Rough Sets in Knowledge Discovery 2, t. 19, Heidelberg: Physica-Verlag HD, 1998, DOI: http://link.springer.com/10.1007/978-3-7908-1883-3 open in new tab
  146. D. Powers, Evaluation: From precision, recall and f-measure to roc., informedness, markedness & correlation, J. Mach. Learn. Technol., t. 2, nr 1, s. 37-63, 2011
  147. Qt, Cross-platform software development for embedded & desktop, [Online], Dostępne na: https://www.qt.io/ [Dostęp: pażdziernik 2018]
  148. Rhintek Incorporated -CARA 2.1/2.2 PLUS -Room Acoustic Software, [Online], Dostępne na: http://www.rhintek.com/cara/cara21desc.php [Dostęp: listopad 2018] open in new tab
  149. J. H. Rindel, The Use of Computer Modeling in Room Acoustics, J. Vibroengineering, No. 3(4), 41-72, 2000
  150. J. Rindel, C. Christensen, Room acustics simulation and auralization - How close can we get to the real Room?, WESPAC VIII, Melbourne, Australia, 2003 open in new tab
  151. Room Acoustics Simulations and Measurements | Software | ODEON A/S, [Online], Dostępne na: https://odeon.dk/ [Dostęp: wrzesień 2018] open in new tab
  152. A. Rosner, B. Schuller, B. Kostek, Classification of Music Genres Based on Music Separation into Harmonic and Drum Components, Archive of. Acoustics, t. 39, nr 4, s. 629-638, 2015, DOI: 10.2478/aoa- 2014-0068 open in new tab
  153. T. D. Rossing, Springer Handbook of Acoustics, New York, Springer New York, 2014 open in new tab
  154. RSES, [Online], Dostępne na: http://logic.mimuw.edu.pl/~rses/ [Dostęp: październik 2018] open in new tab
  155. H. Rump, S. Miyabe, E. Tsunoo, N. Ono, S. Sagayama, Autoregressive MFCC Models for Genre Classification Improved by Harmonic- percussion Separation, ISMIR, 2010
  156. L. Rutkowski, M. Korytkowski, R. Scherer, R. Tadeusiewicz, L. A. Zadeh, J. M. Zurada, Artificial Intelligence and Soft Computing, t. 7895. Berlin, Heidelberg: Springer Berlin Heidelberg, 2013, DOI: 10.1007/978-3-642-38610-7 open in new tab
  157. J. Sadowski, Akustyka Architektoniczna, Warszawa, Państwowe Wydawnictwo Naukowe, 1976
  158. M. Sahidullah, G. Saha, Design, analysis and experimental evaluation of block based transformation in MFCC computation for speaker recognition, Speech Communication., t. 54, nr 4, s. 543-565, 2012, DOI: 10.1016/j.specom.2011.11.004 open in new tab
  159. C. Sammut, G. I. Webb, Red., Encyclopaedia of machine learning, New York, London, Springer, 2010 open in new tab
  160. A. Sarroff, M. Casey, Groove Kernels as Rhythmic---Acoustic Motif Descriptors, 14th International Society for Music Information Retrieval Conference, 2013
  161. Y. Sasaki, The truth of the F-measure, Teach Tutor Mater., 2007 open in new tab
  162. S. Sato, Theory of subjective preference for sound fields in concert halls: Process and application, 2nd UNTREF International Congress on Acoustics, Argentina, 2010
  163. N. Scaringella, G. Zoia, D. Mlynek, Automatic genre classification of music content: a survey, IEEE Signal Process. Mag., t. 23, nr 2, s. 133-141, mar. 2006, DOI: 10.1109/MSP.2006.1598089 open in new tab
  164. M. Schedl, E. Gómez, J. Urbano, Music information retrieval: recent developments and applications, Boston, Mass., Now Publ, 2014 open in new tab
  165. Schemat ucha, [Online], Dostępne na: https://i0.wp.com/barwydzwieku.com.pl/wp- content/uploads/2015/03/ucho.jpg?resize=847%2C450 [Dostęp: sierpień 2018] open in new tab
  166. Serwis edukacyjny KSM -metoda oceny jakości akustycznej wnętrz wg Beranka, [Online], Dostępne na: https://multimed.org/student/elearning/param_ber.htm [Dostęp: sierpień 2018] [168] SFS Verkkokauppa - Tuote, [Online], Dostępne na: https://sales.sfs.fi/fi/index/tuotteet/SFS/SFS/ID2/5/2766.html.stx [Dostęp: wrzesień 2018]
  167. M. P. Shah, Tensorflow Implementation of Convolutional Recurrent Neural Networks for Music Genre Classification: meetshah1995/crnn- music-genre-classification, 2018
  168. C. Shi, H. Mu, W.-S. Gan, A psychoacoustical preprocessing technique for virtual bass enhancement of the parametric loudspeaker, 2013 IEEE International Conference on Acoustics, Speech and Signal Processing, s. 31-35, Vancouver, Canada, 2013 open in new tab
  169. J. Shouten, Acoustics -The residue and the mechanism of hearing, Eindhoven, Natuurkundig Laboratorium der N. V. Philips' Gloeilampenfabriken, 1940
  170. Smartphone shipments worldwide 2009-2018 | Statistic, [Online], Dostępne na: https://www.statista.com/statistics/271491/worldwide- shipments-of-smartphones-since-2009/ [Dostęp: listopad 2018] open in new tab
  171. S. W. Smith, Digital signal processing: a practical guide for engineers and scientists, Amsterdam, Boston, Newnes, 2002
  172. U. Smyczyńska, J. Smyczyńska A. Lewiński, R. Tadeusiewicz, Applicability of artificial neural networks in modelling endocrine disorders and growth processes, Pediatr. Endocrinol., t. 14, nr 2, s. 55- 66, 2015, DOI: 10.18544/EP-01.14.02.1557 open in new tab
  173. Software -EASE -Enhanced Acoustic Simulator for Engineers, [Online], Dostępne na: https://ease.afmg.eu/ [Dostęp: listopad 2018] open in new tab
  174. Spotify, [Online], Dostępne na: https://www.spotify.com/pl/ [Dostęp: lipiec 2018] open in new tab
  175. Staðlabúðin - ÍST 45:2003, [Online], Dostępne na: http://www.stadlar.is/verslun/p-13738-st-452003.aspx [Dostęp: wrzesień 2018]
  176. StatSoft Polska,[Online], Dostępne na: https://www.statsoft.pl/ [Dostęp: wrzesień 2018] open in new tab
  177. S. V. Stehman, Selecting and interpreting measures of thematic classification accuracy, Remote Sens. Environ., t. 62, nr 1, s. 77-89, 1997, DOI:10.1016/S0034-4257(97)00083-7 open in new tab
  178. R. J. Stove, A student's guide to music history, 1st ed. Wilmington, Del: ISI Books, 2007
  179. Subjective Audio Qualities and Descriptive Terms | Knowledge Base | Shure Americas, [Online], Dostępne na: http://www.shure.com/americas/support/find-an-answer/subjective- audio-qualities-and-descriptive-terms [Dostęp: sierpień 2018] open in new tab
  180. Surface Pro, [Online], Dostępne na: www.microsoft.com/pl- pl/surface/devices/surface-pro/overview, [Dostęp: wrzesień 2018] open in new tab
  181. K. Sztekmiler, Podstawy nagłośnienia i realizacji nagrań, Warszawa, Wydawnictwa Komunikacji i Łączności WKŁ, 2006
  182. G. Szwoch, Analiza dźwięków muzycznych, s. 60, wykład, 2018
  183. R. Tadeusiewicz, Sieci neuronowe, Warszawa, Akademicka Oficyna Wydawnicza, 1993
  184. R. Tadeusiewicz, Sygnał mowy, Warszawa, Wydawnictwa Komunikacji i Łączności, 1988
  185. R. Tadeusiewicz, W. Torbicz, Akademicka Oficyna Wydawnicza Exit, Sieci neuronowe w inżynierii biomedycznej, Warszawa, Akademicka Oficyna Wydawnicza Exit, 2013
  186. K. Tanaka, An introduction to fuzzy logic for practical applications, New York, Springer Verlag, 1997 open in new tab
  187. J. Tang, F. Liu, Y. Zou, W. Zhang, Y. Wang, An Improved Fuzzy Neural Network for Traffic Speed Prediction Considering Periodic Characteristic, IEEE Trans. Intell. Transp. Syst., t. 18, nr 9, s. 2340- 2350, 2017, DOI: 10.1109/TITS.2016.2643005 open in new tab
  188. TensorFlow, [Online], Dostępne na: https://www.tensorflow.org/ [Dostęp: październik 2018]
  189. H. Terasawa, J. Berger, S. Makino, In Search of a Perceptual Metric for Timbre: Dissimilarity Judgments among Synthetic Sounds with MFCC- Derived Spectral Envelopes, J. Audio Eng. Soc, t. 60, nr 9, s. 674-685, 2012
  190. E. Terhardt, Calculating virtual pitch, Hear. Res., t. 1, nr 2, s. 155-182, 1979, DOI: 10.1016/0378-5955(79)90025-X open in new tab
  191. The Loudness Wars -Thoughts From 62 Mastering Pros, AudioSkills open in new tab
  192. The Loudness Wars: Why Music Sounds Worse, [Online], Dostępne na: https://www.npr.org/2009/12/31/122114058/the-loudness-wars-why- music-sounds-worse [Dostęp: lipiec 2018] open in new tab
  193. The MPEG-7 Standard, [Online], Dostępne na: http://mpeg7.org/mpeg- 7-standard [Dostęp: sierpień 2018] open in new tab
  194. P. Tomczyk, Zastosowanie Metody MLS i SWEPT SINE do pomiarów akustycznych w warunkach wysokiego tła akustycznego, Pr. Inst. Tech. Bud., t. 4, s. 27-53, 2010 open in new tab
  195. TuneIn | Free Internet Radio | NFL, Sports, Podcasts, Music & News, [Online], Dostępne na: https://tunein.com/ [Dostęp: listopad 2018]
  196. G. Tzanetakis, P. Cook, Musical genre classification of audio signals, IEEE Trans. Speech Audio Processing, t. 10, nr 5, s. 293-302, 2002, DOI: 10.1109/TSA.2002.800560 open in new tab
  197. Ultrabooks: global notebook market share 2011-2015 | Statistic, [Online], Dostępne na: https://www.statista.com/statistics/276772/ultrabook-share-of-global- notebook-market-since-2011/ [Dostęp: listopad 2018] open in new tab
  198. Ultrabooks Market 2018: Industry Size, Growth, Analysis and Forecast of 2025, [Online], Dostępne na: https://www.marketwatch.com/press- release/ultrabooks-market-2018-industry-size-growth-analysis-and- forecast-of-2025-2018-09-06 [Dostęp: listopad 2018] open in new tab
  199. S. Vaseghi, Multimedia Signal Processing -Theory and Applications in Speech, Music and Communications, Wiley, 2007 open in new tab
  200. P. Wachułka, M. Weryk, Projekt systemu nagłośnieniowego przy wykorzystaniu oprogramowania CATT-Acoustic, Politechnika Gdańska, 2003
  201. Wee-Tong Lim, N. Oo, W. Gan, Synthesis of polynomial-based nonlinear device and harmonic shifting technique for virtual bass system, 2009 IEEE International Symposium on Circuits and Systems, s. 1871-1874, 2009
  202. L. Weissenberger, Toward a universal, meta-theoretical framework for music information classification and retrieval, Journal of Documentation, Vol. 71 Issue: 5, pp.917-937, https://doi.org/10.1108/JD-08-2013-0106 open in new tab
  203. C. A Weitze, C. Christensen, J. Rindel, Comparison between In-situ Recordings and Auralizations for Mosques and Byzantine Churches, 17th ICA, Rome, 2-7 September 2001
  204. Weka 3 -Data Mining with Open Source Machine Learning Software in Java, [Online], Dostępne na: https://www.cs.waikato.ac.nz/ml/weka/ [Dostęp: październik 2018] open in new tab
  205. What is the Loudness War ?, [Online], Dostępne na: http://dynamicrangeday.co.uk/about/ [Dostęp: lipiec 2018] open in new tab
  206. Why do mobile phone speakers sound so bad?, [Online], Dostępne na: https://www.choose.co.uk/guide/why-mobile-phone-speakers-sound- bad.html [Dostęp: listopad 2018] open in new tab
  207. A. Witort, Dźwięk i technika Hi-Fi, Warszawa, Wydaw. Czasopism i Książek Technicznych NOT-SIGMA, 1988 open in new tab
  208. Wzmacniacz Bruel & Kjaer 2716C, [Online], Dostępne na: https://www.bksv.com/media/doc/bp1923.pdf [Dostęp: czerwiec 2018]
  209. Wzmacniacz Nexo NXAMP4X1, [Online], Dostępne na: https://nexo- sa.com/products/nxamp4x1 [Dostęp: czerwiec 2018] open in new tab
  210. M. Xu, L.-Y. Duan, J. Cai, L.-T. Chia, C. Xu, Q. Tian, HMM-Based Audio Keyword Generation, t. 3333. 2004, DOI: 10.1007/978-3-540- 30543-9_71 open in new tab
  211. Y. Yaslan, Z. Cataltepe, Audio Music Genre Classification Using Different Classifiers and Feature Selection Methods, 18th International Conference on Pattern Recognition (ICPR'06), Hong Kong, China, s. 573-576, 2006, DOI: 10.1109/ICPR.2006.282 open in new tab
  212. L. A. Zadeh, Fuzzy logic, neural networks, and soft computing, Commun. ACM, t. 37, nr 3, s. 77-84, 1994, DOI: 10.1145/175247.175255 open in new tab
  213. R. J. Zatorre, Finding the missing fundamental: Neuroscience, Nature, t. 436, nr 7054, s. 1093-1094, 2005, DOI: 10.1038/4361093a open in new tab
  214. T. P. Zieliński, Cyfrowe przetwarzanie sygnałów: od teorii do zastosowań, Warszawa, Wydawnictwa Komunikacji Łączności, 2005
  215. J. Zygarlicki, Reduced Prony method -advanced properties, Przegląd Elektrotechniczny, t. 10a, 2012 open in new tab
  216. U. Zölzer, DAFX: digital audio effects, Second edition. Chichester, Wiley, 2011 open in new tab
  217. J. Żera, Udział składowych harmonicznych w tworzeniu wysokości dźwięku, Praca Doktorska, Politechnika Wrocławska, Wrocław, 1989
  218. Z. Żyszkowski, Podstawy Elektroakustyki, Warszawa, Wydawnictwo Naukowo-Techniczne, 1984
  219. 68% of U.S. smartphone owners listen to streaming music daily, [Online], Dostępne na: http://www.parksassociates.com/blog/article/pr- 03092016 [Dostęp: listopad 2018]
  220. WYKAZ RYSUNKÓW RYSUNEK RYSUNEK 1-1 STRUKTURA ROZPRAWY .................................................................................. 20 RYSUNEK 2-1 ILUSTRACJA GŁÓWNYCH CZĘŚCI NARZĄDU SŁUCHU Z OZNACZENIEM POSZCZEGÓLNYCH ELEMENTÓW [166] ................................................................................................... 24
  221. RYSUNEK 2-5 OGÓLNY SCHEMAT BLOKOWY UKŁADU VBS Z WYKORZYSTANIEM METODY PV [12] ....... 33
  222. RYSUNEK 2-9 WYKAZ GENEROWANYCH CZĘSTOTLIWOŚCI DLA TYPOWYCH INSTRUMENTÓW MUZYCZNYCH WYSTĘPUJĄCYCH W ORKIESTRALNYM SKŁADZIE [64]........................................................... 41
  223. RYSUNEK 2-11 WIDOK OKNA KOREKTORA GRAFICZNEGO Z PROGRAMU ITUNES [72] ....................... 43
  224. RYSUNEK 3-1 SCHEMAT BLOKOWY PODSTAWOWEGO TORU FONICZNEGO [223] ............................. 46
  225. RYSUNEK 3-2 ODBICIE FALI DŹWIĘKOWEJ OD PŁASKIEJ POWIERZCHNI W IDEALNYCH WARUNKACH [131]48
  226. RYSUNEK 3-4 ILUSTRACJE MOŻLIWYCH DO WYSTĄPIENIA W POMIESZCZENIU REZONANSÓW: A) OSIOWY, B)
  227. STYCZNY, C) SKOŚNY [131] .......................................................................................... 50 open in new tab
  228. RYSUNEK 3-5 ILUSTRACJE PODZIAŁU PASMA AKUSTYCZNEGO DO ANALIZY ZNIEKSZTAŁCEŃ WPROWADZANYCH PRZEZ POMIESZCZENIE [45] ................................................................ 52
  229. RYSUNEK 3-6 ILUSTRACJA WPŁYWU POSZCZEGÓLNYCH POWIERZCHNI NA CAŁOŚCIOWĄ MODYFIKACJĘ SYGNAŁU MUZYCZNEGO [78] ....................................................................................... 55
  230. RYSUNEK 3-8 PRZYKŁADOWY PRZEBIEG ODPOWIEDZI IMPULSOWEJ ZAREJESTROWANEJ W SALI KONCERTOWEJ ......................................................................................................... 62
  231. RYSUNEK 3-9 SPOSÓB PRZETWARZANIA SYGNAŁU SINUSOIDALNEGO Z PRZESTRAJANĄ CZĘSTOTLIWOŚCIĄ (SWEEP SINE) W POMIESZCZENIU ZAMKNIĘTYM [198] ........................................................ 65 RYSUNEK 4-1 PRZEBIEG CZASOWY SYGNAŁU TRĄBKI Z ZAZNACZONĄ NA CZERWONO LINIĄ OBWIEDNI
  232. RYSUNEK 4-2 ILUSTRACJA ZASTOSOWANIA KLASYFIKATORA SVN DO OKREŚLENIA PRZYNALEŻNOŚCI DO
  233. RYSUNEK 4-4 PRZYKŁADOWY REZULTAT WYOSTRZANIA METODAMI (OD LEWEJ): PIERWSZEGO MAKSIMUM, OSTATNIEGO MAKSIMUM, ŚRODKA MAKSIMUM, ŚRODKA CIĘŻKOŚCI (GDZIE: Y1 JEST PRZYKŁADOWĄ WARTOŚCIĄ ZMIENNEJ Y, U JEST FUNKCJĄ WARTOŚCI ZMIENNEJ Y, B1, B2 SĄ PRZYKŁADOWYMI
  234. ZBIORAMI ROZMYTYMI) [189] ......................................................................................89
  235. RYSUNEK 4-5 MACIERZ POMYŁEK.........................................................................................91 RYSUNEK 5-1 UPROSZCZONA STRUKTURA SYSTEMU POPRAWY BRZMIENIA SYGNAŁU MUZYCZNEGO.......94
  236. RYSUNEK 5-2 UPROSZCZONA STRUKTURA SYSTEMU KLASYFIKACJI GATUNKÓW .................................95 open in new tab
  237. RYSUNEK 5-4 SKUTECZNOŚĆ KLASYFIKACJI ALGORYTMÓW K-NN, BAYESNET ORAZ SMO DLA BAZY UTWORÓW SYNAT .................................................................................................... 101
  238. RYSUNEK 5-5 MIARY PRECYZJI, ROZRZUTU I F1 DLA KLASYFIKATORÓW K-NN, BAYESNET I SMO ....... 103
  239. RYSUNEK 5-6 MIARY PRECYZJI, ROZRZUTU I F1 DLA KLASYFIKATORA K-NN Z ROZRÓŻNIENIEM NA GATUNKI MUZYCZNE ............................................................................................................. 104
  240. RYSUNEK 5-7 SKUTECZNOŚĆ KLASYFIKACJI Z ROZRÓŻNIENIEM NA FRAGMENT UTWORÓW MUZYCZNYCH ........................................................................................................................... 106
  241. RYSUNEK 5-8 SKUTECZNOŚĆ KLASYFIKACJI BEZ PCA I Z PCA DLA KLASYFIKATORÓW K-NN I REGUŁOWEGO
  242. DLA BAZY SYNAT ...................................................................................................... 107
  243. RYSUNEK 5-9 SKUTECZNOŚĆ KLASYFIKACJI OSIĄGNIĘTA DLA KOMERCYJNEJ BAZY MUZYCZNEJ GZTAN Z WYKORZYSTANIEM KLASYFIKATORA REGUŁOWEGO ............................................................ 108
  244. RYSUNEK 5-10 SKUTECZNOŚĆ KLASYFIKACJI I WIELKOŚĆ OBSZARU POD KRZYWĄ ROC (AUC -AREA UNDER CURVE) W FUNKCJI LICZBY EPOK......................................................................... 111 open in new tab
  245. RYSUNEK 5-11 SKUTECZNOŚĆ KLASYFIKACJI DLA SZTUCZNYCH SIECI NEURONOWYCH, DLA 10 GATUNKÓW MUZYCZNYCH .......................................................................................................... 112
  246. RYSUNEK 5-12 SKUTECZNOŚĆ KLASYFIKACJI DLA SZTUCZNYCH SIECI NEURONOWYCH, DLA 6 GATUNKÓW MUZYCZNYCH .......................................................................................................... 112
  247. RYSUNEK 5-13 CZAS KLASYFIKACJI DLA POSZCZEGÓLNYCH ALGORYTMÓW ..................................... 115 RYSUNEK 5-14 CHARAKTERYSTYKA CZĘSTOTLIWOŚCIOWA SYGNAŁU PRZETWARZANEGO Z WYKORZYSTANIEM TRADYCYJNEGO ALGORYTMU BASSBOOST I ZAPROPONOWANEGO ALGORYTMU SMART VBS. RYSUNEK A -WIDOK NA MODYFIKACJĘ PEŁNEGO PASMA. RYSUNEK B -PRZYBLIŻENIE NA
  248. RYSUNEK 5-15 SCHEMAT BLOKOWY ZAPROPONOWANEJ METODY DO INTELIGENTNEGO WZMOCNIENIA NISKICH CZĘSTOTLIWOŚCI (SMART VBS) ....................................................................... 117
  249. RYSUNEK 5-17 INTERFEJS UŻYTKOWNIKA APLIKACJI SMART SOUND ........................................... 125 RYSUNEK 5-18 SCHEMAT IDEOWY ZAPROPONOWANEGO ROZWIĄZANIA ...................................... 126
  250. RYSUNEK 5-20 SCHEMAT POGLĄDOWY UKŁADU STEROWANIA .................................................. 130 RYSUNEK 5-21 ZRZUT EKRANU PROGRAMU FUZZYLITE Z ZAIMPLEMENTOWANYM ZESTAWEM PARAMETRÓW DLA STEROWANIA UKŁADEM MODYFIKUJĄCYM DŹWIĘK .................................. 130 open in new tab
  251. RYSUNEK 5-22 SPOSÓB ROZMYWANIA ZMIENNYCH (OD GÓRY): GATUNEK MUZYCZNY, CZAS POGŁOSU (TP), WSPÓŁCZYNNIK KLAROWNOŚCI, WSPÓŁCZYNNIK WYRAZISTOŚCI .................................... 131
  252. RYSUNEK 5-23 WIZUALIZACJA WYOSTRZANIA DLA PARAMETRU WZMOCNIENIA DLA PIERWSZEGO PASMA KOREKTORA ........................................................................................................... 132
  253. RYSUNEK 5-24 ZESTAWIENIE SKAL CZĘSTOTLIWOŚCIOWYCH ..................................................... 134
  254. RYSUNEK 6-1 INTERFEJS APLIKACJI TESTOWEJ ....................................................................... 137 RYSUNEK 6-2 CHARAKTERYSTYKA CZĘSTOTLIWOŚCIOWA GŁOŚNIKÓW ZAMONTOWANYCH W LAPTOPIE HP PROBOOK 4520S .................................................................................................... 139
  255. RYSUNEK 6-4 INTERFEJS GRAFICZNY WYKORZYSTANY W TEŚCIE PORÓWNAŃ PARAMI [101] ............. 141
  256. RYSUNEK 6-6 CHARAKTERYSTYKI CZĘSTOTLIWOŚCIOWE GŁOŚNIKÓW ZAMONTOWANYCH W WYKORZYSTANYCH LAPTOPACH ................................................................................... 143
  257. RYSUNEK 6-7 WIZUALIZACJA ODLEGŁOŚCI EUKLIDESOWEJ MIĘDZY POSZCZEGÓLNYMI UTWORAMI ...... 148
  258. RYSUNEK 6-8 WYKRES PUDEŁKOWY OBRAZUJĄCY ROZKŁAD ODPOWIEDZI UDZIELONYCH PRZEZ SŁUCHACZY .......................................................................................................................... 149
  259. RYSUNEK 6-9 WYNIKI TESTU T-STUDENTA ........................................................................... 150 RYSUNEK 6-10 ŚREDNIE OCENY BADANYCH DLA PRÓBEK UKRYTEJ REFERENCJI W ZALEŻNOŚCI OD WYKORZYSTANYCH UTWORÓW ................................................................................... 151 RYSUNEK 6-11 PORÓWNANIE WYKORZYSTANYCH ALGORYTMÓW NA PODSTAWIE ŚREDNICH ODPOWIEDZI SŁUCHACZY Z ROZRÓŻNIENIEM NA SZEŚĆ GATUNKÓW MUZYCZNYCH ...................................... 153
  260. RYSUNEK 6-12 PORÓWNANIE WYKORZYSTANYCH ALGORYTMÓW NA PODSTAWIE ŚREDNICH ODPOWIEDZI SŁUCHACZY Z ROZRÓŻNIENIEM NA SZEŚĆ GATUNKÓW MUZYCZNYCH ...................................... 154
  261. RYSUNEK 6-14 CHARAKTERYSTYKA CZĘSTOTLIWOŚCIOWA GŁOŚNIKÓW WYKORZYSTANYCH W TEŚCIE ... 158
  262. RYSUNEK 6-15 ZDJĘCIA POMIESZCZENIA NR 1 WYKONANE W TRAKCIE POMIARÓW ......................... 159
  263. RYSUNEK 6-17 SPRZĘT POMIAROWY WYKORZYSTANY PODCZAS BADAŃ: SYSTEM PULSE (PO LEWEJ), open in new tab
  264. ANALIZATOR NTI AL1 (PO PRAWEJ) ............................................................................. 161
  265. RYSUNEK 6-18 ROZŁOŻENIE PUNKTÓW POMIAROWYCH I ŹRÓDEŁ DŹWIĘKU W BADANYCH POMIESZCZENIACH ................................................................................................... 162
  266. RYSUNEK 6-20 CHARAKTERYSTYKI CZĘSTOTLIWOŚCIOWE ORYGINALNEGO SYGNAŁU SZUMU RÓŻOWEGO I ZAREJESTROWANEGO W POMIESZCZENIACH NR 1,2 Z WYKORZYSTANIEM GŁOŚNIKÓW S1 (A) ORAZ
  267. S2, S3 (B) ............................................................................................................. 164
  268. RYSUNEK 6-21 CHARAKTERYSTYKI CZĘSTOTLIWOŚCIOWE ORYGINALNEGO SYGNAŁU MUZYKI KLASYCZNEJ I ZAREJESTROWANEGO W POMIESZCZENIACH 1, 2 Z WYKORZYSTANIEM GŁOŚNIKÓW S1 (A) ORAZ S2, S3 (B) .................................................................................................................. 166
  269. RYSUNEK 6-22 CHARAKTERYSTYKI CZĘSTOTLIWOŚCIOWE ORYGINALNEGO SYGNAŁU MUZYKI ROCKOWEJ I ZAREJESTROWANEGO W POMIESZCZENIACH 1, 2 Z WYKORZYSTANIEM GŁOŚNIKÓW S1 (A) ORAZ S2, S3 (B) .................................................................................................................. 168 open in new tab
  270. RYSUNEK 6-25 INTERFEJS TESTU ODSŁUCHOWEGO MUSHRA .................................................... 176 open in new tab
  271. RYSUNEK 6-26 INTERFEJS TESTU ODSŁUCHOWEGO AB ............................................................ 177
  272. RYSUNEK 6-27 ŚREDNIE WARTOŚCI ODPOWIEDZI SŁUCHACZY Z PODZIAŁEM NA UTWORY W GATUNKACH MUZYCZNYCH .......................................................................................................... 179
  273. RYSUNEK 6-28 ŚREDNIE WARTOŚCI ODPOWIEDZI SŁUCHACZY Z PODZIAŁEM NA UTWORY W GATUNKACH MUZYCZNYCH DLA SYGNAŁÓW ZMODYFIKOWANYCH Z WYKORZYSTANIEM PRZYGOTOWANEGO
  274. KOREKTORA ............................................................................................................ 181
  275. RYSUNEK 6-29 WYKRES PUDEŁKOWY -ŚREDNIE ODPOWIEDZI SŁUCHACZY Z PODZIAŁEM NA GATUNEK MUZYCZNY DLA SYGNAŁU EQ ..................................................................................... 181
  276. RYSUNEK 6-30 ŚREDNIE WARTOŚCI ODPOWIEDZI SŁUCHACZY Z PODZIAŁEM NA UTWORY W GATUNKACH MUZYCZNYCH DLA SYGNAŁU UZYSKANEGO W WYNIKU AURALIZACJI ...................................... 183
  277. RYSUNEK 6-31 ŚREDNIE WARTOŚCI ODPOWIEDZI SŁUCHACZY Z PODZIAŁEM NA UTWORY W GATUNKACH MUZYCZNYCH DLA SYGNAŁU AURALIZOWANEGO Z KOREKCJĄ .............................................. 184
  278. RYSUNEK 6-32 SUMARYCZNA LICZBA WSKAZAŃ SŁUCHACZY DLA ZAPROPONOWANEGO SYSTEMU KOREKCJI I KRZYWYCH KOREKCYJNYCH ITUNES Z PODZIAŁEM NA GATUNKI MUZYCZNE (MAKSIMUM 78 DLA open in new tab
  279. KAŻDEGO GATUNKU) ................................................................................................ 186
  280. RYSUNEK 8-1 PRZEBIEGI SYGNAŁU MUZYCZNEGO Z GATUNKU CLASSICAL ZAREJESTROWANEGO W POMIESZCZENIU 1 I 2 Z WYKORZYSTANIEM SYSTEMÓW NAGŁOŚNIENIOWYCH S1 (A) I S2,S3(B) . 217 open in new tab
  281. RYSUNEK 8-2 PRZEBIEGI SYGNAŁU MUZYCZNEGO Z GATUNKU ELECTRONIC ZAREJESTROWANEGO W POMIESZCZENIU 1 I 2 Z WYKORZYSTANIEM SYSTEMÓW NAGŁOŚNIENIOWYCH S1 (A) I S2,S3 (B) 218 open in new tab
  282. RYSUNEK 8-3 PRZEBIEGI SYGNAŁU MUZYCZNEGO Z GATUNKU JAZZ ZAREJESTROWANEGO W POMIESZCZENIU 1 I 2 Z WYKORZYSTANIEM SYSTEMÓW NAGŁOŚNIENIOWYCH S1 (A) I S2,S3(B) . 219 open in new tab
  283. RYSUNEK 8-4 PRZEBIEGI SYGNAŁU MUZYCZNEGO Z GATUNKU POP ZAREJESTROWANEGO W POMIESZCZENIU 1 I 2 Z WYKORZYSTANIEM SYSTEMÓW NAGŁOŚNIENIOWYCH S1 (A) I S2,S3(B) . 220 open in new tab
  284. RYSUNEK 8-5 PRZEBIEGI SYGNAŁU MUZYCZNEGO Z GATUNKU RAP ZAREJESTROWANEGO W POMIESZCZENIU 1 I 2 Z WYKORZYSTANIEM SYSTEMÓW NAGŁOŚNIENIOWYCH S1 (A) I S2,S3(B) ...................... 221 open in new tab
  285. RYSUNEK 8-7 PORÓWNANIE KRZYWYCH KOREKCYJNYCH WYGENEROWANYCH W PROGRAMIE ITUNES I Z WYKORZYSTANIEM PROPONOWANEJ METODY DLA GATUNKU MUZYKI KLASYCZNEJ.................... 223
  286. RYSUNEK 8-8 PORÓWNANIE KRZYWYCH KOREKCYJNYCH WYGENEROWANYCH W PROGRAMIE ITUNES I Z WYKORZYSTANIEM PROPONOWANEJ METODY DLA GATUNKU MUZYKI ELEKTRONICZNEJ ............. 224
  287. RYSUNEK 8-9 PORÓWNANIE KRZYWYCH KOREKCYJNYCH WYGENEROWANYCH W PROGRAMIE ITUNES I Z WYKORZYSTANIEM PROPONOWANEJ METODY DLA GATUNKU MUZYKI JAZZOWEJ ...................... 225
  288. RYSUNEK 8-10 PORÓWNANIE KRZYWYCH KOREKCYJNYCH WYGENEROWANYCH W PROGRAMIE ITUNES I Z WYKORZYSTANIEM PROPONOWANEJ METODY DLA GATUNKU MUZYKI POP ............................. 226
  289. RYSUNEK 8-11 PORÓWNANIE KRZYWYCH KOREKCYJNYCH WYGENEROWANYCH W PROGRAMIE ITUNES I Z WYKORZYSTANIEM PROPONOWANEJ METODY DLA GATUNKU MUZYKI RAP.............................. 227
  290. RYSUNEK 8-12 PORÓWNANIE KRZYWYCH KOREKCYJNYCH WYGENEROWANYCH W PROGRAMIE ITUNES I Z WYKORZYSTANIEM PROPONOWANEJ METODY DLA GATUNKU MUZYKI ROCK ............................ 228
Verified by:
Gdańsk University of Technology

seen 313 times

Recommended for you

Meta Tags