Почему есть LLM, но нет LMM?
Dec. 7th, 2023 08:18 pmСлучилось мне задуматься, почему мы уже несколько лет видим в публичном доступе несколько разных ИИ, которые умеют в картинки (если у вас от этой - и этой - конструкции подгорает, ну извините дважды) разной степени весёлости, уже более года видим в публичном доступе несколько разных ИИ, которые умеют беседовать с разной степенью политкорректности и сообразительности, но что-то не видим ни одного ИИ, которое умело бы музицировать.
А то как хорошо бы было! Берём нейросеть - натренированную исключительно на опусах, находящихся в public domain, разумеется. Рабинович ей что-нибудь там напевает, что сам придумал, и просит скорректировать тональность, темпоритм, аранжировать в том или ином стиле и пр., после чего использует хоть для личных целей (тренировки, езда на машине и т.п.), хоть - после проверки Шазамом или эквивалентом, что ничего подобного раньше не было - для озвучки роликов, например. Не говоря уже о более профессиональных приложениях.
Или, наоборот, Рабинович напевает что-то, что вертится в голове, но не помнит, что - а Шазам его напевание без слуха и голоса не понимает. Тут ИИ смог бы предложить, как бы оно могло звучать на самом деле, в соответствии с теорией музыки - и это уже можно искать другими средствами, тем же Шазамом.
Что же этому мешает? Технические сложности оцифровки нотной записи (почти во второй четверти 21-го века, простите)? Проклятое лобби музыкальной индустрии, типа как дисней недавно заставил графические ИИ запретить промпты "в стиле диснея")? Неясность, как это можно в будущем монетизировать (а у чего сразу есть полная ясность в этом отношении)?
А то как хорошо бы было! Берём нейросеть - натренированную исключительно на опусах, находящихся в public domain, разумеется. Рабинович ей что-нибудь там напевает, что сам придумал, и просит скорректировать тональность, темпоритм, аранжировать в том или ином стиле и пр., после чего использует хоть для личных целей (тренировки, езда на машине и т.п.), хоть - после проверки Шазамом или эквивалентом, что ничего подобного раньше не было - для озвучки роликов, например. Не говоря уже о более профессиональных приложениях.
Или, наоборот, Рабинович напевает что-то, что вертится в голове, но не помнит, что - а Шазам его напевание без слуха и голоса не понимает. Тут ИИ смог бы предложить, как бы оно могло звучать на самом деле, в соответствии с теорией музыки - и это уже можно искать другими средствами, тем же Шазамом.
Что же этому мешает? Технические сложности оцифровки нотной записи (почти во второй четверти 21-го века, простите)? Проклятое лобби музыкальной индустрии, типа как дисней недавно заставил графические ИИ запретить промпты "в стиле диснея")? Неясность, как это можно в будущем монетизировать (а у чего сразу есть полная ясность в этом отношении)?
no subject
Date: 2023-12-08 04:57 am (UTC)no subject
Date: 2023-12-08 04:59 am (UTC)no subject
Date: 2023-12-08 05:04 am (UTC)no subject
Date: 2023-12-08 05:37 am (UTC)no subject
Date: 2023-12-08 05:26 am (UTC)https://www.nvidia.com/en-us/research/ai-art-gallery/artists/aiva/
Айва
no subject
Date: 2023-12-08 05:37 am (UTC)no subject
Date: 2023-12-08 06:06 am (UTC)https://en.m.wikipedia.org/wiki/Music_and_artificial_intelligence
no subject
Date: 2023-12-08 07:12 am (UTC)no subject
Date: 2023-12-08 08:48 am (UTC)no subject
Date: 2023-12-08 05:56 pm (UTC)no subject
Date: 2023-12-08 09:15 am (UTC)no subject
Date: 2023-12-08 09:22 am (UTC)https://openai.com/research/jukebox
https://habr.com/ru/companies/sberdevices/articles/591441/
no subject
Date: 2023-12-08 05:55 pm (UTC)no subject
Date: 2023-12-08 06:29 pm (UTC)no subject
Date: 2023-12-09 03:27 am (UTC)no subject
Date: 2023-12-09 07:38 am (UTC)Зайчики не в таргете
Date: 2023-12-08 06:01 pm (UTC)А потом, у нас народ не очень хорошо понимает свою роль в этом большом эксперименте с Искусственным Идиотом (пока): многие себя считают субъектами, экзаменаторами, в то время как они как раз гине-пиги.
плюс оч много
Date: 2023-12-08 09:05 pm (UTC)