Python基于Streamlit实现音频处理示例详解
作者:大霸王龙
这篇文章主要为大家详细介绍了如何基于Streamlit实现的音频处理,包含录音,语音转文本,文件下载和进度显示功能,有需要的小伙伴可以参考一下
基于Streamlit实现的音频处理示例,包含录音、语音转文本、文件下载和进度显示功能,整合了多个技术方案:
一、环境准备
# 安装依赖库 pip install streamlit streamlit-webrtc audio-recorder-streamlit openai-whisper python-dotx
二、完整示例代码
import streamlit as st from audio_recorder_streamlit import audio_recorder import whisper import os from datetime import datetime # 初始化模型 @st.cache_resource def load_whisper_model(): return whisper.load_model("base") # 使用基础版模型 model = load_whisper_model() # 界面布局 st.title("🎤 音频处理工作流") col1, col2 = st.columns(2) with col1: # 音频录制组件 audio_bytes = audio_recorder( text="点击录音", recording_color="#e87070", neutral_color="#6aa36f", icon_name="microphone", sample_rate=16000 ) # 保存录音文件 if audio_bytes: timestamp = datetime.now().strftime("%Y%m%d_%H%M%S") audio_path = f"audio_{timestamp}.wav" with open(audio_path, "wb") as f: f.write(audio_bytes) st.session_state.audio_path = audio_path st.audio(audio_bytes, format="audio/wav") with col2: # 语音转文本功能 if 'audio_path' in st.session_state and st.button("开始转换"): progress_bar = st.progress(0) status_text = st.empty() try: status_text.text("加载音频文件...") progress_bar.progress(20) # 使用Whisper进行转换 status_text.text("语音识别中...") result = model.transcribe(st.session_state.audio_path) progress_bar.progress(80) # 显示结果 st.subheader("转换结果") st.code(result["text"], language="text") st.session_state.text_result = result["text"] # 生成下载按钮 with st.expander("下载选项"): st.download_button( label="下载文本", data=st.session_state.text_result, file_name=f"transcript_{timestamp}.txt", mime="text/plain" ) with open(st.session_state.audio_path, "rb") as f: st.download_button( label="下载音频", data=f, file_name=audio_path, mime="audio/wav" ) progress_bar.progress(100) status_text.text("处理完成!") except Exception as e: st.error(f"处理失败: {str(e)}") progress_bar.progress(0)
三、核心功能解析
1.音频录制
- 使用audio-recorder-streamlit库实现浏览器原生录音
- 支持设置采样率(16kHz)和录音按钮样式
- 自动保存为WAV格式文件
2.语音识别
- 采用OpenAI Whisper本地模型进行转换
- 支持多语言识别,基础模型大小约150MB
- 通过@st.cache_resource缓存模型提升性能
3.进度管理
- 分阶段更新进度条(加载→识别→完成)
- 使用st.spinner实现加载动画
- 异常处理机制保障流程稳定性
4.文件下载
- 生成带时间戳的唯一文件名
- 同时提供文本和音频下载
- 支持MIME类型自动识别
四、高级优化方案
1.云端部署
# 在HuggingFace Spaces部署时添加配置 STREAMLIT_SERVER_PORT = 8501
2.性能提升
使用量化版Whisper模型(tiny.en/small.en)
启用GPU加速(需配置CUDA环境)
model = whisper.load_model("base", device="cuda")
3.扩展功能
添加音频可视化
import matplotlib.pyplot as plt from scipy.io import wavfile rate, data = wavfile.read(audio_path) plt.specgram(data, Fs=rate) st.pyplot(plt)
五、部署注意事项
依赖管理
# requirements.txt streamlit>=1.28 openai-whisper==20231106 audio-recorder-streamlit==0.1.7
浏览器兼容性
需启用HTTPS协议访问录音功能
推荐使用Chrome/Firefox最新版
资源监控
# 监控内存使用 ps -o pid,user,%mem,command ax | grep streamlit
该方案整合了本地模型推理与Streamlit的交互优势,相比纯API方案可节省90%的云端调用成本。通过进度分段显示和异常捕获机制,使长时间任务具备更好的用户体验。
到此这篇关于Python基于Streamlit实现音频处理示例详解的文章就介绍到这了,更多相关Python Streamlit音频处理内容请搜索脚本之家以前的文章或继续浏览下面的相关文章希望大家以后多多支持脚本之家!