Штучний інтелект у музичному продакшні: перспективи підготовки майбутніх магістрів музичного мистецтва до творчої діяльності в сучасному професійному середовищі
DOI:
https://doi.org/10.24195/artstudies.2025-3.13Ключові слова:
штучний інтелект, музичний продакшн, цифрові аудіоробочі станції (DAW), моделі глибокого навчання (RNN, VAE, GAN, Transformer), підготовка майбутніх магістрів музичного мистецтва, технологічна грамотністьАнотація
Стаття присвячена проблемі впровадження технологій штучного інтелекту (ШІ) до циклу цифрового музичного продакшну та її значущості в контексті професійної підготовки майбутніх магістрів музичного мистецтва. Мета дослідження – простежити еволюційний розвиток моделей штучного інтелекту від ранніх конекціоністських і заснованих на правилах систем до сучасних архітектур на основі трансформерів, охарактеризувати чинники, що впливають на їх застосовність у професійних робочих процесах генерації музичного матеріалу, визначити їхні переваги й обмеження у проєкції перспектив підготовки майбутніх магістрів музичного мистецтва до успішної творчої діяльності в сучасному професійному середовищі. Методи дослідження включають ретроспективний аналіз ключових етапів розвитку моделей штучного інтелекту, порівняльний аналіз рекуррентних нейронних мереж, варіаційних автокодувальників, генеративних змагальних мереж і систем на основі трансформерів, а також синтез літератури з використанням міждисциплінарних джерел у галузі комп’ютерної музики, когнітивних наук і музичної педагогіки.Результати показали, що штучний інтелект у музичному продакшні еволюціонував відповідно до послідовного процесу розроблення нових поколінь моделей: від ранішніх символьних систем до глибоких генеративних архітектур і мультимодальних технологій перетворення тексту на музику. З кожним етапом удосконалення моделей музичні продюсери отримували нові інструменти для творчості, але суттєві обмеження та недоліки, що зберігаються і досі, зумовлюють необхідність підготовки професіоналів до критичного оцінювання та здійснення адаптації згенерованого матеріалу, що інтегрується в цифрові аудіоробочі станції (DAW). Основними перспективами підготовки майбутніх магістрів музичного мистецтва до творчої діяльності в сучасному професійному середовищі визначено необхідність набуття технологічної грамотності, адаптивності в роботі зі згенерованим матеріалом, здатності до взаємодії зі штучним інтелектом у форматі спільної творчої та критичного усвідомлення технологічних і художньо-творчих обмежень. Перспективою подальших досліджень є визначення сутності та функцій специфічних умінь майбутніх магістрів музичного мистецтва для успішної творчої діяльності в сучасному професійному середовищі, реалізуючи цикл музичного продакшну з використанням технологій штучного інтелекту.
Посилання
1. Agostinelli, A., Denk, T. I., Borsos, Z., Engel, J., Verzetti, M., Caillon, A., ... & Frank, C. (2023). Musiclm: Generating music from text. arXiv preprint arXiv:2301.11325. https://doi.org/10.48550/arXiv.2301.11325
2. Civit, M., Civit-Masot, J., Cuadrado, F., & Escalona, M. J. (2022). A systematic review of artificial intelligence- based music generation: Scope, applications, and future trends. Expert Systems with Applications, 209, 118190. https://doi.org/10.1016/j.eswa.2022.118190
3. Collins, M. (2014). In the Box Music Production: Advanced Tools and Techniques for Pro Tools (1 ed.). Routledge. https://doi.org/10.4324/9780203066362
4. Dhariwal, P., Jun, H., Payne, C., Kim, J. W., Radford, A., & Sutskever, I. (2020). Jukebox: A generative model for music. arXiv:2005.00341. Retrieved from: https://assets.pubpub.org/2gnzbcnd/11608661311181.pdf
5. Eck, D., & Schmidhuber, J. (2002, August). Learning the long-term structure of the blues. In International Conference on Artificial Neural Networks (pp. 284–289). Berlin, Heidelberg: Springer Berlin Heidelberg. https://doi.org/10.1007/3-540-46084-5_47
6. Giuliani, L., De Filippo, A., & Borghesi, A. (2023). Towards Intelligent Music Production: A Sample-based Approach. In Ceur workshop proceedings (Vol. 3519, pp. 50–59). CEUR-WS. Retrieved from: https://hdl.handle.net/11585/952308
7. Goodfellow, I. J., Pouget-Abadie, J., Mirza, M., Xu, B., Warde-Farley, D., Ozair, S., ... & Bengio, Y. (2014). Generative Adversarial Nets. Advances in Neural Information Processing Systems (NeurIPS), 27. https://doi.org/10.48550/arXiv.1406.2661
8. Hatem, G. (2023). The Role of Artificial Intelligence in Music Production: A Look at Amper Music’s Innovative Approach. Linkedin. Retrieved from: https://surl.lu/bffllx
9. Hiller, L. A., & Isaacson, L. M. (1979). Experimental Music; Composition with an electronic computer. Greenwood Publishing Group Inc. Retrieved from: https://dn790000.ca.archive.org/0/items/ experimentalmusi00hill/experimentalmusi00hill.pdf
10. Hochreiter, S., & Schmidhuber, J. (1997). Long Short-Term Memory. Neural Computation, 9 (8), 1735–1780. https://doi.org/10.1162/neco.1997.9.8.1735
11. Huang, C. Z. A., Vaswani, A., Uszkoreit, J., Shazeer, N., Simon, I., Hawthorne, C., ... & Eck, D. (2018). Music transformer: Generating Music with Long- Term Structure. ICLR 2019 Conference Paper. Retrieved from: https://openreview.net/pdf?id=rJe4ShAcF7
12. Kingma, D. P., & Welling, M. (2013). Auto-encoding variational bayes. arXiv preprint arXiv:1312.6114. https://doi.org/10.48550/arXiv.1312.6114
13. LeCun, Y., Bengio, Y., & Hinton, G. (2015). Deep learning. Nature, 521 (7553), 436–444. https://doi.org/10.1038/nature14539
14. Lipton, Z. C., Berkowitz, J., & Elkan, C. (2015). A Critical Review of Recurrent Neural Networks for Sequence Learning. arXiv:1506.00019. https://doi.org/ 10.48550/arXiv.1506.00019
15. Liu, J. (2024). Expressive MIDI-format Piano Performance Generation. arXiv preprint arXiv:2408.00900. https://doi.org/10.48550/arXiv.2408.00900
16. Mitra, R., & Zualkernan, I. (2025). Music generation using deep learning and generative AI: a systematic review. IEEE Access, 13, 18079–18106. https://doi.org/10.1109/ACCESS.2025.3531798
17. Mozer, M. C. (1994). Neural Network Music Composition by Prediction: Exploring the Benefits of Psychoacoustic Constraints and Multi-scale Processing. Connection Science, 6 (2–3), 247–280. https://doi.org/ 10.1080/09540099408915726
18. MuseNet. (2019). OpenAI. Retrieved from: https://openai.com/index/musenet/?utm_source
19. Ovcharenko, N., Merezhko, Y., Moskva, O., Neboga, O., & Kosiak, L. (2021). Technological competence of future music teachers: diagnostic and formative methods. Amazonia Investiga, 10 (48), 238–247. https://doi.org/10.34069/AI/2021.48.12.25
20. Paleti, N. C. (2024). Positional Encoding Explained: A Deep Dive into Transformer PE. Medium. Retrieved from: https://medium.com/thedeephub/ positional-encoding-explained-a-deep-dive-into-transformer-pe-65cfe8cfe10b
21. Quick, D. (2016). Learning production probabilities for musical grammars. Journal of New Music Research, 45 (4), 295–313. https://doi.org/10.10 80/09298215.2016.1228680
22. Rastrygina, A. M. (2020). Training of future specialists-musicians on the principles of interdisciplinary models of free arts. Academic Notes. Series: Pedagogical Sciences, (190), 38–42. https://doi.org/10.36550/2415-7988-2020-1-190-38-42
23. Roberts, A., Engel, J., Raffel, C., Hawthorne, C., & Eck, D. (2018a). A hierarchical latent vector model for learning long-term structure in music. In International conference on machine learning (pp. 4364–4373). PMLR. Retrieved from: https://proceedings.mlr.press/ v80/roberts18a.html
24. Roberts, A., Engel, J., Raffel, C., Simon, I., & Hawthorne, C. (2018b). MusicVAE: Creating a palette for musical scores with machine learning. Magenta. Retrieved from: https://magenta.withgoogle.com/music-vae
25. Simpson, J., & Groff, B. (2023). The 5 Best AI Music Generators of 2023. Benjamin Groff. Retrieved from: https://www.benjamingroff.com/top-ai-music- generators/
26. Sterne, J., & Razlogova, E. (2021). Tuning sound for infrastructures: artificial intelligence, automation, and the cultural politics of audio mastering. Cultural Studies, 35 (4–5), 750–770. https://doi.org/10.1080/09502386. 2021.1895247
27. Tiwari, V. (2025). Attention Is All You Need – A Deep Dive into the Revolutionary Transformer Architecture. Towards AI. Retrieved from: https://surli.cc/ijvsla
28. Todd, P. M. (1989). A Connectionist Approach to Algorithmic Composition. Computer Music Journal, 13(4), 27–43. https://doi.org/10.2307/3679551
29. Vaswani, A., Shazeer, N., Parmar, N., Uszkoreit, J., Jones, L., Gomez, A. N., Kaiser, Ł., & Polosukhin, I. (2017). Attention Is All You Need. 31st Conference on Neural Information Processing Systems (NIPS 2017). Long Beach, CA, USA. https://doi.org/10.48550/arXiv.1706.03762
30. Wei, L., Yu, Y., Qin, Y., & Zhang, S. (2025). From Tools to Creators: A Review on the Development and Application of Artificial Intelligence Music Generation. Information, 16 (8), 656. https://doi.org/10.3390/info16080656
31. Yang, L. C., Chou, S. Y., & Yang, Y. H. (2017). MidiNet: A convolutional generative adversarial network for symbolic-domain music generation. arXiv preprint arXiv:1703.10847. https://doi.org/10.48550/arXiv.1703.10847
32. Zhao, Y., Yang, M., Lin, Y., Zhang, X., Shi, F., Wang, Z., Ding, J., & Ning, H. (2025). AI-Enabled Text-to-Music Generation: A Comprehensive Review of Methods, Frameworks, and Future Directions. Electronics, 14 (6), 1197. https://doi.org/10.3390/electronics14061197
##submission.downloads##
Опубліковано
Номер
Розділ
Ліцензія

Ця робота ліцензується відповідно до Creative Commons Attribution 4.0 International License.






