plugin v1.0.1
Deploy / Deploy (push) Successful in 1m19s Details

This commit is contained in:
JotaChina 2025-11-23 17:02:17 -03:00
parent 248912b359
commit fb9dccda3a
2 changed files with 100 additions and 99 deletions

View File

@ -1,22 +1,37 @@
// js/recording.js // js/recording.js
import { appState } from './state.js'; import { appState } from './state.js';
import { addAudioTrackLane, addAudioClipToTimeline } from './audio/audio_state.js'; import { addAudioTrackLane } from './audio/audio_state.js';
import { renderAudioEditor } from './audio/audio_ui.js'; import { renderAudioEditor } from './audio/audio_ui.js';
// 👇 IMPORTANTE: Importar o disparador de ações do Socket
import { sendAction } from './socket.js';
import * as Tone from "https://esm.sh/tone";
let userMedia = null; let userMedia = null;
let recorder = null; let recorder = null;
let isRecordingInitialized = false; let isRecordingInitialized = false;
// --- NOVO: Variáveis para análise e desenho em tempo real --- // --- Variáveis para análise visual ---
let analyser = null; let analyser = null;
let liveWaveformCanvas = null; let liveWaveformCanvas = null;
let liveWaveformCtx = null; let liveWaveformCtx = null;
let animationFrameId = null; let animationFrameId = null;
let currentRecordingTrackId = null; let currentRecordingTrackId = null;
// -----------------------------------------------------------
/** /**
* Pede permissão e prepara o microfone (Tone.UserMedia) e o gravador (Tone.Recorder). * Utilitário: Converte Blob para Base64 (Data URI)
* Necessário para enviar o áudio via Socket para outros usuários.
*/
function blobToBase64(blob) {
return new Promise((resolve, reject) => {
const reader = new FileReader();
reader.onloadend = () => resolve(reader.result);
reader.onerror = reject;
reader.readAsDataURL(blob);
});
}
/**
* Inicializa microfone e analisador
*/ */
async function _initializeRecorder() { async function _initializeRecorder() {
if (isRecordingInitialized) return true; if (isRecordingInitialized) return true;
@ -26,38 +41,30 @@ async function _initializeRecorder() {
await userMedia.open(); await userMedia.open();
recorder = new Tone.Recorder(); recorder = new Tone.Recorder();
// --- NOVO: Inicializa o Analisador ---
// 'waveform' nos dá os dados de amplitude ao longo do tempo. 1024 é um bom tamanho de buffer.
analyser = new Tone.Analyser('waveform', 1024); analyser = new Tone.Analyser('waveform', 1024);
// 3. Conecta o microfone a *ambos*: o gravador E o analisador
userMedia.connect(recorder); userMedia.connect(recorder);
userMedia.connect(analyser); // "Fan-out" para o analisador userMedia.connect(analyser);
isRecordingInitialized = true; isRecordingInitialized = true;
console.log("Sistema de gravação e análise inicializado."); console.log("Sistema de gravação e análise inicializado.");
return true; return true;
} catch (err) { } catch (err) {
console.error("Erro ao inicializar a gravação (permissão negada?):", err); console.error("Erro ao inicializar gravação:", err);
alert("Erro ao acessar o microfone. Verifique as permissões do navegador."); alert("Erro ao acessar microfone. Verifique permissões.");
return false; return false;
} }
} }
// --- NOVO: Função para desenhar a onda ao vivo --- /**
* Desenha a onda em tempo real no Canvas
*/
function _drawLiveWaveform() { function _drawLiveWaveform() {
// Continua o loop enquanto estivermos gravando if (!appState.global.isRecording || !analyser || !liveWaveformCtx) return;
if (!appState.global.isRecording || !analyser || !liveWaveformCtx) { //
return;
}
// Pede o próximo quadro de animação
animationFrameId = requestAnimationFrame(_drawLiveWaveform); animationFrameId = requestAnimationFrame(_drawLiveWaveform);
const waveformData = analyser.getValue();
// Pega os dados da forma de onda do analisador
const waveformData = analyser.getValue(); // Retorna um Float32Array
const canvas = liveWaveformCanvas; const canvas = liveWaveformCanvas;
const ctx = liveWaveformCtx; const ctx = liveWaveformCtx;
@ -65,7 +72,7 @@ function _drawLiveWaveform() {
const height = canvas.height; const height = canvas.height;
ctx.clearRect(0, 0, width, height); ctx.clearRect(0, 0, width, height);
ctx.strokeStyle = 'var(--accent-red)'; // Cor vermelha para "gravando" ctx.strokeStyle = 'var(--accent-red)';
ctx.lineWidth = 1; ctx.lineWidth = 1;
ctx.beginPath(); ctx.beginPath();
@ -73,80 +80,77 @@ function _drawLiveWaveform() {
let x = 0; let x = 0;
for (let i = 0; i < waveformData.length; i++) { for (let i = 0; i < waveformData.length; i++) {
const v = waveformData[i]; // Valor entre -1.0 e 1.0 const v = waveformData[i];
const y = (v * 0.5 + 0.5) * height; // Mapeia para 0..height const y = (v * 0.5 + 0.5) * height;
if (i === 0) { if (i === 0) ctx.moveTo(x, y);
ctx.moveTo(x, y); else ctx.lineTo(x, y);
} else {
ctx.lineTo(x, y);
}
x += sliceWidth; x += sliceWidth;
} }
ctx.lineTo(width, height / 2);
ctx.lineTo(width, height / 2); // Linha final até o meio
ctx.stroke(); ctx.stroke();
} }
// ----------------------------------------------------
/** /**
* Inicia a gravação de fato. * Inicia a gravação
*/ */
async function _startRecording() { async function _startRecording() {
if (appState.global.isAudioEditorPlaying) { if (appState.global.isAudioEditorPlaying) {
console.warn("A gravação foi iniciada, mas o playback do editor continua."); console.warn("Gravação iniciada durante playback.");
} }
const success = await _initializeRecorder(); const success = await _initializeRecorder();
if (!success) return; if (!success) return;
try { try {
const newTrack = addAudioTrackLane(); // Agora isso vai funcionar! // 1. Cria a pista e PEGA O RETORNO (lembre de ter aplicado a correção no audio_state.js)
currentRecordingTrackId = newTrack.id; const newTrack = addAudioTrackLane();
if (!newTrack) { if (!newTrack) {
console.error("Falha ao criar a nova pista de áudio no estado."); console.error("Erro: addAudioTrackLane não retornou a nova pista.");
return; return;
} }
currentRecordingTrackId = newTrack.id; currentRecordingTrackId = newTrack.id;
// 3. Renderiza o editor para a nova pista aparecer // 2. Renderiza para atualizar o DOM
renderAudioEditor(); // renderAudioEditor();
// 4. Encontra o painel de info da nova pista e injeta o canvas // 3. Injeta o Canvas na pista criada
const trackInfoPanel = document.querySelector(`.audio-track-lane[data-track-id="${currentRecordingTrackId}"] .track-info`); // const trackInfoPanel = document.querySelector(`.audio-track-lane[data-track-id="${currentRecordingTrackId}"] .track-info`);
if (!trackInfoPanel) {
console.error("Não foi possível encontrar o painel da nova pista para o canvas.");
return;
}
if (trackInfoPanel) {
liveWaveformCanvas = document.createElement('canvas'); liveWaveformCanvas = document.createElement('canvas');
liveWaveformCanvas.id = 'live-waveform-canvas'; liveWaveformCanvas.id = 'live-waveform-canvas';
// Ajuste a largura e altura como preferir para caber no painel liveWaveformCanvas.width = 180; // Ajustei largura para preencher melhor
liveWaveformCanvas.width = 100;
liveWaveformCanvas.height = 40; liveWaveformCanvas.height = 40;
// Insere antes dos controles ou no final
const controls = trackInfoPanel.querySelector('.track-controls');
if(controls) {
trackInfoPanel.insertBefore(liveWaveformCanvas, controls);
} else {
trackInfoPanel.appendChild(liveWaveformCanvas); trackInfoPanel.appendChild(liveWaveformCanvas);
}
liveWaveformCtx = liveWaveformCanvas.getContext('2d'); liveWaveformCtx = liveWaveformCanvas.getContext('2d');
// --- Fim da lógica movida --- }
// 5. Inicia a gravação (Tone.Recorder) // 4. Inicia gravação e visualização
await recorder.start(); await recorder.start();
appState.global.isRecording = true; // appState.global.isRecording = true;
console.log("Gravação iniciada..."); _updateRecordButtonUI(true);
_updateRecordButtonUI(true); //
// 6. Inicia o loop de desenho
_drawLiveWaveform(); _drawLiveWaveform();
} catch (err) { } catch (err) {
console.error("Erro ao iniciar a gravação:", err); console.error("Erro ao iniciar REC:", err);
appState.global.isRecording = false; // appState.global.isRecording = false;
_updateRecordButtonUI(false); _updateRecordButtonUI(false);
} }
} }
/** /**
* Para a gravação e processa o áudio resultante. * Para a gravação e envia para o Socket
*/ */
async function _stopRecording() { async function _stopRecording() {
if (!recorder || !userMedia) return; if (!recorder || !userMedia) return;
@ -154,84 +158,80 @@ async function _stopRecording() {
try { try {
const recordingBlob = await recorder.stop(); const recordingBlob = await recorder.stop();
// --- MUDANÇA: Limpa tudo --- // Limpeza
userMedia.close(); userMedia.close();
if(analyser) analyser.dispose(); // Limpa o analisador if(analyser) analyser.dispose();
analyser = null; analyser = null;
isRecordingInitialized = false; isRecordingInitialized = false;
appState.global.isRecording = false;
appState.global.isRecording = false; //
// Para o loop de animação
if (animationFrameId) { if (animationFrameId) {
cancelAnimationFrame(animationFrameId); cancelAnimationFrame(animationFrameId);
animationFrameId = null; animationFrameId = null;
} }
// Remove o canvas temporário
if (liveWaveformCanvas) { if (liveWaveformCanvas) {
liveWaveformCanvas.remove(); liveWaveformCanvas.remove();
liveWaveformCanvas = null; liveWaveformCanvas = null;
liveWaveformCtx = null; liveWaveformCtx = null;
} }
// --- Fim da limpeza ---
console.log("Gravação parada."); _updateRecordButtonUI(false);
_updateRecordButtonUI(false); //
_processRecording(recordingBlob); // Processa o arquivo final
await _processRecording(recordingBlob);
} catch (err) { } catch (err) {
console.error("Erro ao parar a gravação:", err); console.error("Erro ao parar REC:", err);
appState.global.isRecording = false; // appState.global.isRecording = false;
_updateRecordButtonUI(false); _updateRecordButtonUI(false);
} }
} }
/** /**
* Adiciona o áudio gravado (Blob) ao editor. * Converte o áudio e envia via Socket (Broadcast)
*/ */
function _processRecording(blob) { async function _processRecording(blob) {
if (!blob || blob.size === 0) { if (!blob || blob.size === 0) return;
console.warn("Blob de gravação está vazio. Nada a adicionar.");
return;
}
// --- MUDANÇA: Não criamos mais a pista aqui, apenas pegamos o ID ---
// const newTrackId = newTrack.id; // [removido]
const targetTrackId = currentRecordingTrackId; const targetTrackId = currentRecordingTrackId;
if (!targetTrackId) { if (!targetTrackId) {
console.error("ID da pista de gravação não encontrado."); console.error("ID da pista de gravação perdido.");
return; return;
} }
currentRecordingTrackId = null; // Limpa o ID currentRecordingTrackId = null;
// ------------------------------------------------------------------
const blobUrl = URL.createObjectURL(blob); // 1. Converter para Base64 para poder enviar via rede
const clipName = `Rec_${new Date().toISOString().slice(11, 19).replace(/:/g, '-')}`; // (Blobs locais não funcionam para outros usuários)
const base64Audio = await blobToBase64(blob);
// Adiciona o clipe à pista que já criamos const clipName = `Rec_${new Date().toLocaleTimeString().replace(/:/g, '-')}`;
addAudioClipToTimeline(blobUrl, targetTrackId, 0, clipName, null); // const clipId = `rec_${Date.now()}_${Math.random().toString(36).substr(2, 5)}`;
// addAudioClipToTimeline já chama o render // 2. USAR sendAction EM VEZ DE EDITAR O ESTADO DIRETAMENTE
// Isso garante que:
// a) O socket.js processe a ação (Broadcasting para a sala)
// b) O socket.js chame handleActionBroadcast localmente (Atualizando sua tela)
sendAction({
type: "ADD_AUDIO_CLIP",
filePath: base64Audio, // Base64 funciona como URL no Tone.js/Browser
trackId: targetTrackId,
startTimeInSeconds: 0,
clipId: clipId,
name: clipName
});
} }
/**
* Atualiza o visual do botão de gravação.
*/
function _updateRecordButtonUI(isRecording) { function _updateRecordButtonUI(isRecording) {
const recordBtn = document.getElementById("record-btn"); // const recordBtn = document.getElementById("record-btn");
if (recordBtn) { if (recordBtn) {
recordBtn.classList.toggle("active", isRecording); recordBtn.classList.toggle("active", isRecording);
recordBtn.classList.toggle("recording", isRecording); recordBtn.classList.toggle("recording", isRecording);
} }
} }
/**
* Função pública que será chamada pelo botão em main.js
*/
export function toggleRecording() { export function toggleRecording() {
if (appState.global.isRecording) { // if (appState.global.isRecording) {
_stopRecording(); _stopRecording();
} else { } else {
_startRecording(); _startRecording();

File diff suppressed because one or more lines are too long