Разработчики выпустили нейросеть See-2-Sound для генерации звуков окружения по картинке или видео
Исследователи Университета Торонто представили See-2-Sound — нейросеть для генерации звуков окружения по картинке или видео.
Модель машинного обучения не только создаёт подходящую дорожку, но и расставляет источники звука в пространстве для создания эффекта присутствия.See-2-Sound работает в несколько этапов:Нейросеть получает на вход изображение, анимацию или видео и оценивает источники.