Рубрика «генерация музыки»

Создай хит за 5 минут: как бесплатно сгенерировать песню с нейросетью Udio - 1

Музыка всегда была выражением души и эмоций, а с развитием технологий процесс её создания значительно упростился. С появлением нейросетей, таких как Udio, композитором может стать каждый, вне зависимости от профессиональных навыков. 

Читать полностью »

Шпаргалка: Как писать промпты для Suno AI, чтобы сгенерировать действительно красивую музыку

Шпаргалка: Как писать промпты для Suno AI, чтобы сгенерировать действительно красивую музыку

Читать полностью »

Большой гайд по Suno: делаем песню с нуля - 1

Музыкальный мир вступил в новую эру, и нет, это не заголовок фантастического романа. Нейросетевые генераторы музыки, такие как Suno AI, уже сегодня создают треки, которые ставят под вопрос традиционные способы написания музыки.

Давайте разберёмся, как шаг за шагом освоить Suno, раскроем её секреты и посмотрим, как она меняет правила игры.

Приятного прочтения (-:

Читать полностью »

Mark Shiloh, Влад - наш бывший соотечественник, более 20 лет живущий в Новой Зеландии (Окленд ), профессиональный музыкант, мульти-инструменталист с большим практическим опытом, ныне преподаватель и директор музыкальной школы... Более 30 лет назад мы вместе работали в Новосибирской консерватории. Когда в моей команде разрабатывали программу морфинга параметров синтезаЧитать полностью »

Доброго времени всем пользователям Suno и тем, кто интересуется технологиями ИИ в музыке. Как и ранее не претендую на полноту освещения вопроса, но надеюсь, что информация будет полезной.

Под аранжировкой обычно понимают создание инструментального трека (минусовки, backing track) на основе мелодии или мелодии + гармонии, с определенным стилем, темпом, формой/структурой. Suno генерирует песни (и инструментал) целиком с задаваемыми (относительно) стилем и формой. Показалось интересным протестировать систему на возможность создания нужной аранжировки. Особенно после своих экспериментов с Audio Input (см. Читать полностью »

Facebook* на днях выкатил в свет новую нейронку - MusicGen (репозиторий).
Видимо, парням из компании было мало выпустить текстовую модель Llama, давшую огромный разгон развитию локальных нейросеток, и они решили сделать то же самое в сфере музыки.

Сегодня мы узнаем о модели чуть больше, подумаем о том, кому она нужна, и запустим её локально.

Читать полностью »

Какой метод генерации аудио лучший? Сравнение GAN, VAE и Diffusion - 1


В прошлой статье я затронул тему генерации звука с помощью диффузионной модели. Но какие методы существуют вообще и какой из них сейчас наиболее перспективен? Сегодня мы рассмотрим долгий путь этого направления в машинном обучении. Послушаем результаты, посмотрим метрики и просто взглянем на новые технологии, применяемые в совершенно разных нейросетях для аудиосинтеза.Читать полностью »

Генерация музыки из изображений с помощью Python - 1


Сказать, что музыка является частью моей жизни, будет серьёзным преуменьшением. Я более 20 лет играю на гитаре, и каждый день слушаю других гитаристов. По правде говоря, прежде чем начать свой академический путь в качестве физхимика двенадцать лет назад, я был намерен строить музыкальную карьеру.

И хотя этим моим планам ну было суждено осуществиться, я всё равно продолжаю наслаждаться музыкой и делать с её помощью всякие крутые штуки. К примеру, этот проект возник из идеи написать программу, которая бы создавала музыку из изображений. В прошлом уже были довольно интересные попытки сделать нечто подобное, но вот результаты оказывались не особо музыкальными.

Далее в этой статье я расскажу о своём подходе к генерации из картинок аудиотреков, которые, имхо, звучат весьма неплохо. Здесь я опишу основные результаты и покажу некоторые удачные примеры программы. Если вы захотите посмотреть весь код, то он лежит на моём сайте и в репозитории GitHub. Я также создал с помощью Streamlit приложение, с которым вы можете поэкспериментировать здесь.Читать полностью »

Многие уже слышали, а может и пробовали модель Stable Diffusion для генерации картинок из текста.

Генерируем музыку с помощью Stable Diffusion - 1

Теперь ту же модель можно использовать для генерации музыки! Модель была дообучена на задаче генерации спектрограмм по входной строке и теперь появилась возможность делать следующее:

Читать полностью »

WaveNet: новая модель для генерации человеческой речи и музыки - 1Наша облачная платформа Voximplant — это не только телефонные и видео звонки. Это еще и набор «батареек», которые мы постоянно улучшаем и расширяем. Одна из самых популярных функций: возможность синтезировать речь, просто вызвав JavaScript метод say во время звонка. Разрабатывать свой синтезатор речи — на самая лучшая идея, мы все-таки специализируемся на телеком бэкенде, написанном на плюсах и способном обрабатывать тысячи одновременных звонков и снабжать каждый из них JavaScript логикой в реальном времени. Мы используем решения партнеров и внимательно следим за всем новым, что появляется в индустрии. Хочется через несколько лет отойти от мема «Железная Женщина» :) Статья, адаптированный перевод которой мы сделали за эти выходные, рассказывает про WaveNet, модель для генерации звука (звуковых волн). В ней мы рассмотрим как WaveNet может генерировать речь, которая похожа на голос любого человека, а также звучать гораздо натуральнее любых существующих Text-to-Speech систем, улучшив качество более чем на 50%.

Мы также продемонстрируем, что та же самая сеть может использоваться для создания других звуков, включая музыку, и покажем несколько автоматически сгенерированных примеров музыкальных композиций (пианино).
Читать полностью »


https://ajax.googleapis.com/ajax/libs/jquery/3.4.1/jquery.min.js