Штучний інтелект у музичному продакшні: перспективи підготовки майбутніх магістрів музичного мистецтва до творчої діяльності в сучасному професійному середовищі

Автор(и)

  • Інга Олексіївна Хмелевська ДЗ «Південноукраїнський національний педагогічний університет імені К. Д. Ушинського» https://orcid.org/0000-0001-9129-2173
  • Володимир Олегович Слободянюк ДЗ «Південноукраїнський національний педагогічний університет імені К. Д. Ушинського» https://orcid.org/0009-0008-4186-2113

DOI:

https://doi.org/10.24195/artstudies.2025-3.13

Ключові слова:

штучний інтелект, музичний продакшн, цифрові аудіоробочі станції (DAW), моделі глибокого навчання (RNN, VAE, GAN, Transformer), підготовка майбутніх магістрів музичного мистецтва, технологічна грамотність

Анотація

Стаття присвячена проблемі впровадження технологій штучного інтелекту (ШІ) до циклу цифрового музичного продакшну та її значущості в контексті професійної підготовки майбутніх магістрів музичного мистецтва. Мета дослідження – простежити еволюційний розвиток моделей штучного інтелекту від ранніх конекціоністських і заснованих на правилах систем до сучасних архітектур на основі трансформерів, охарактеризувати чинники, що впливають на їх застосовність у професійних робочих процесах генерації музичного матеріалу, визначити їхні переваги й обмеження у проєкції перспектив підготовки майбутніх магістрів музичного мистецтва до успішної творчої діяльності в сучасному професійному середовищі. Методи дослідження включають ретроспективний аналіз ключових етапів розвитку моделей штучного інтелекту, порівняльний аналіз рекуррентних нейронних мереж, варіаційних автокодувальників, генеративних змагальних мереж і систем на основі трансформерів, а також синтез літератури з використанням міждисциплінарних джерел у галузі комп’ютерної музики, когнітивних наук і музичної педагогіки.Результати показали, що штучний інтелект у музичному продакшні еволюціонував відповідно до послідовного процесу розроблення нових поколінь моделей: від ранішніх символьних систем до глибоких генеративних архітектур і мультимодальних технологій перетворення тексту на музику. З кожним етапом удосконалення моделей музичні продюсери отримували нові інструменти для творчості, але суттєві обмеження та недоліки, що зберігаються і досі, зумовлюють необхідність підготовки професіоналів до критичного оцінювання та здійснення адаптації згенерованого матеріалу, що інтегрується в цифрові аудіоробочі станції (DAW). Основними перспективами підготовки майбутніх магістрів музичного мистецтва до творчої діяльності в сучасному професійному середовищі визначено необхідність набуття технологічної грамотності, адаптивності в роботі зі згенерованим матеріалом, здатності до взаємодії зі штучним інтелектом у форматі спільної творчої та критичного усвідомлення технологічних і художньо-творчих обмежень. Перспективою подальших досліджень є визначення сутності та функцій специфічних умінь майбутніх магістрів музичного мистецтва для успішної творчої діяльності в сучасному професійному середовищі, реалізуючи цикл музичного продакшну з використанням технологій штучного інтелекту.

Посилання

1. Agostinelli, A., Denk, T. I., Borsos, Z., Engel, J., Verzetti, M., Caillon, A., ... & Frank, C. (2023). Musiclm: Generating music from text. arXiv preprint arXiv:2301.11325. https://doi.org/10.48550/arXiv.2301.11325

2. Civit, M., Civit-Masot, J., Cuadrado, F., & Escalona, M. J. (2022). A systematic review of artificial intelligence- based music generation: Scope, applications, and future trends. Expert Systems with Applications, 209, 118190. https://doi.org/10.1016/j.eswa.2022.118190

3. Collins, M. (2014). In the Box Music Production: Advanced Tools and Techniques for Pro Tools (1 ed.). Routledge. https://doi.org/10.4324/9780203066362

4. Dhariwal, P., Jun, H., Payne, C., Kim, J. W., Radford, A., & Sutskever, I. (2020). Jukebox: A generative model for music. arXiv:2005.00341. Retrieved from: https://assets.pubpub.org/2gnzbcnd/11608661311181.pdf

5. Eck, D., & Schmidhuber, J. (2002, August). Learning the long-term structure of the blues. In International Conference on Artificial Neural Networks (pp. 284–289). Berlin, Heidelberg: Springer Berlin Heidelberg. https://doi.org/10.1007/3-540-46084-5_47

6. Giuliani, L., De Filippo, A., & Borghesi, A. (2023). Towards Intelligent Music Production: A Sample-based Approach. In Ceur workshop proceedings (Vol. 3519, pp. 50–59). CEUR-WS. Retrieved from: https://hdl.handle.net/11585/952308

7. Goodfellow, I. J., Pouget-Abadie, J., Mirza, M., Xu, B., Warde-Farley, D., Ozair, S., ... & Bengio, Y. (2014). Generative Adversarial Nets. Advances in Neural Information Processing Systems (NeurIPS), 27. https://doi.org/10.48550/arXiv.1406.2661

8. Hatem, G. (2023). The Role of Artificial Intelligence in Music Production: A Look at Amper Music’s Innovative Approach. Linkedin. Retrieved from: https://surl.lu/bffllx

9. Hiller, L. A., & Isaacson, L. M. (1979). Experimental Music; Composition with an electronic computer. Greenwood Publishing Group Inc. Retrieved from: https://dn790000.ca.archive.org/0/items/ experimentalmusi00hill/experimentalmusi00hill.pdf

10. Hochreiter, S., & Schmidhuber, J. (1997). Long Short-Term Memory. Neural Computation, 9 (8), 1735–1780. https://doi.org/10.1162/neco.1997.9.8.1735

11. Huang, C. Z. A., Vaswani, A., Uszkoreit, J., Shazeer, N., Simon, I., Hawthorne, C., ... & Eck, D. (2018). Music transformer: Generating Music with Long- Term Structure. ICLR 2019 Conference Paper. Retrieved from: https://openreview.net/pdf?id=rJe4ShAcF7

12. Kingma, D. P., & Welling, M. (2013). Auto-encoding variational bayes. arXiv preprint arXiv:1312.6114. https://doi.org/10.48550/arXiv.1312.6114

13. LeCun, Y., Bengio, Y., & Hinton, G. (2015). Deep learning. Nature, 521 (7553), 436–444. https://doi.org/10.1038/nature14539

14. Lipton, Z. C., Berkowitz, J., & Elkan, C. (2015). A Critical Review of Recurrent Neural Networks for Sequence Learning. arXiv:1506.00019. https://doi.org/ 10.48550/arXiv.1506.00019

15. Liu, J. (2024). Expressive MIDI-format Piano Performance Generation. arXiv preprint arXiv:2408.00900. https://doi.org/10.48550/arXiv.2408.00900

16. Mitra, R., & Zualkernan, I. (2025). Music generation using deep learning and generative AI: a systematic review. IEEE Access, 13, 18079–18106. https://doi.org/10.1109/ACCESS.2025.3531798

17. Mozer, M. C. (1994). Neural Network Music Composition by Prediction: Exploring the Benefits of Psychoacoustic Constraints and Multi-scale Processing. Connection Science, 6 (2–3), 247–280. https://doi.org/ 10.1080/09540099408915726

18. MuseNet. (2019). OpenAI. Retrieved from: https://openai.com/index/musenet/?utm_source

19. Ovcharenko, N., Merezhko, Y., Moskva, O., Neboga, O., & Kosiak, L. (2021). Technological competence of future music teachers: diagnostic and formative methods. Amazonia Investiga, 10 (48), 238–247. https://doi.org/10.34069/AI/2021.48.12.25

20. Paleti, N. C. (2024). Positional Encoding Explained: A Deep Dive into Transformer PE. Medium. Retrieved from: https://medium.com/thedeephub/ positional-encoding-explained-a-deep-dive-into-transformer-pe-65cfe8cfe10b

21. Quick, D. (2016). Learning production probabilities for musical grammars. Journal of New Music Research, 45 (4), 295–313. https://doi.org/10.10 80/09298215.2016.1228680

22. Rastrygina, A. M. (2020). Training of future specialists-musicians on the principles of interdisciplinary models of free arts. Academic Notes. Series: Pedagogical Sciences, (190), 38–42. https://doi.org/10.36550/2415-7988-2020-1-190-38-42

23. Roberts, A., Engel, J., Raffel, C., Hawthorne, C., & Eck, D. (2018a). A hierarchical latent vector model for learning long-term structure in music. In International conference on machine learning (pp. 4364–4373). PMLR. Retrieved from: https://proceedings.mlr.press/ v80/roberts18a.html

24. Roberts, A., Engel, J., Raffel, C., Simon, I., & Hawthorne, C. (2018b). MusicVAE: Creating a palette for musical scores with machine learning. Magenta. Retrieved from: https://magenta.withgoogle.com/music-vae

25. Simpson, J., & Groff, B. (2023). The 5 Best AI Music Generators of 2023. Benjamin Groff. Retrieved from: https://www.benjamingroff.com/top-ai-music- generators/

26. Sterne, J., & Razlogova, E. (2021). Tuning sound for infrastructures: artificial intelligence, automation, and the cultural politics of audio mastering. Cultural Studies, 35 (4–5), 750–770. https://doi.org/10.1080/09502386. 2021.1895247

27. Tiwari, V. (2025). Attention Is All You Need – A Deep Dive into the Revolutionary Transformer Architecture. Towards AI. Retrieved from: https://surli.cc/ijvsla

28. Todd, P. M. (1989). A Connectionist Approach to Algorithmic Composition. Computer Music Journal, 13(4), 27–43. https://doi.org/10.2307/3679551

29. Vaswani, A., Shazeer, N., Parmar, N., Uszkoreit, J., Jones, L., Gomez, A. N., Kaiser, Ł., & Polosukhin, I. (2017). Attention Is All You Need. 31st Conference on Neural Information Processing Systems (NIPS 2017). Long Beach, CA, USA. https://doi.org/10.48550/arXiv.1706.03762

30. Wei, L., Yu, Y., Qin, Y., & Zhang, S. (2025). From Tools to Creators: A Review on the Development and Application of Artificial Intelligence Music Generation. Information, 16 (8), 656. https://doi.org/10.3390/info16080656

31. Yang, L. C., Chou, S. Y., & Yang, Y. H. (2017). MidiNet: A convolutional generative adversarial network for symbolic-domain music generation. arXiv preprint arXiv:1703.10847. https://doi.org/10.48550/arXiv.1703.10847

32. Zhao, Y., Yang, M., Lin, Y., Zhang, X., Shi, F., Wang, Z., Ding, J., & Ning, H. (2025). AI-Enabled Text-to-Music Generation: A Comprehensive Review of Methods, Frameworks, and Future Directions. Electronics, 14 (6), 1197. https://doi.org/10.3390/electronics14061197

##submission.downloads##

Опубліковано

2025-10-14

Номер

Розділ

РОЗДІЛ 1. АКТУАЛЬНІ ПРОБЛЕМИ МИСТЕЦЬКОЇ ПЕДАГОГІКИ