Поэтому я использовал WebAudioAPI для создания музыки из кода. Я использовал OfflineAudioContext для создания музыки, и его событие oncomplete похоже на это:
function(e) {
var audioCtx = new (window.AudioContext || window.webkitAudioContext)();
var song = audioCtx.createBufferSource();
song.buffer = e.renderedBuffer;
song.connect(audioCtx.destination);
song.start();
}
Который воспроизводит звук. И это работает. Но вместо этого я хотел бы сохранить его как элемент <audio>
, потому что его легче воспроизводить, зацикливать, приостанавливать и останавливать, что мне нужно для повторного использования песни.
Является ли это возможным? Я гуглю несколько дней, но не могу найти как!
Идея заключалась в том, чтобы использовать var song = new Audio()
и что-то, чтобы скопировать в него e.renderedBuffer
.