• android中AudioRecord使用


    一 什么是音频的采样率和采样大小  

    自然界中的声音非常复杂,波形极其复杂,通常我们采用的是脉冲代码调制编码。即PCM编码。PCM通过抽样、量化、编码三个步骤将连续变化的模拟信号转换为数字编码。

    抽样:在音频采集中叫做采样率。
    由于声音其实是一种能量波,因此也有频率和振幅的特征,频率对应于时间轴线,振幅对应于电平轴线。波是无限光滑的,弦线可以看成由无数点组成,由于存储空间是相对有限的,数字编码过程中,必须对弦线的点进行采样。采样的过程就是抽取某点的频率值,很显然,在一秒中内抽取的点越多,获取得频率信息更丰富,为了复原波形,一次振动中,必须有2个点的采样,人耳能够感觉到的最高频率为20kHz,因此要满足人耳的听觉要求,则需要至少每秒进行40k次采样,用40kHz表达,这个40kHz就是采样率。我们常见的CD,采样率为44.1kHz。
    量化:我们这里的采样大小就是量化的过程,将该频率的能量值并量化,用于表示信号强度。量化电平数为 2的整数次幂,我们常见的CD位16bit的采样大小,即2的16次方。
    编码:
    根据采样率和采样大小可以得知,相对自然界的信号,音频编码最多只能做到无限接近,至少目前的技术只能这样了,相对自然界的信号,任何数字音频编码方案都是有损的,因为无法完全还原。在计算机应用中,能够达到最高保真水平的就是PCM编码,被广泛用于素材保存及音乐欣赏,CD、DVD以及我们常见的WAV文件中均有应用。因此,PCM约定俗成了无损编码,因为PCM代表了数字音频中最佳的保真水准,并不意味着PCM就能够确保信号绝对保真,PCM也只能做到最大程度的无限接近。我们而习惯性的把MP3列入有损音频编码范畴,是相对PCM编码的。强调编码的相对性的有损和无损,是为了告诉大家,要做到真正的无损是困难的,就像用数字去表达圆周率,不管精度多高,也只是无限接近,而不是真正等于圆周率的值

    为什么要使用音频压缩技术 

    要算一个PCM音频流的码率是一件很轻松的事情,采样率值×采样大小值×声道数bps。一个采样率为44.1KHz,采样大小为16bit,双声道的PCM编码的WAV文件,它的数据速率则为 44.1K×16×2 =1411.2 Kbps。我们常说128K的MP3,对应的WAV的参数,就是这个1411.2 Kbps,这个参数也被称为数据带宽,它和ADSL中的带宽是一个概念。将码率除以8,就可以得到这个WAV的数据速率,即176.4KB/s。这表示存储一秒钟采样率为44.1KHz,采样大小为16bit,双声道的PCM编码的音频信号,需要176.4KB的空间,1分钟则约为10.34M,这对大部分用户是不可接受的,尤其是喜欢在电脑上听音乐的朋友,要降低磁盘占用,只有2种方法,降低采样指标或者压缩。降低指标是不可取的,因此专家们研发了各种压缩方案。由于用途和针对的目标市场不一样,各种音频压缩编码所达到的音质和压缩比都不一样,在后面的文章中我们都会一一提到。有一点是可以肯定的,他们都压缩过。 

    频率与采样率的关系 

    采样率表示了每秒对原始信号采样的次数,我们常见到的音频文件采样率多为44.1KHz,这意味着什么呢?假设我们有2段正弦波信号,分别为20Hz和20KHz,长度均为一秒钟,以对应我们能听到的最低频和最高频,分别对这两段信号进行 40KHz的采样,我们可以得到一个什么样的结果呢?结果是:20Hz的信号每次振动被采样了40K/20=2000次,而20K的信号每次振动只有2次采样。显然,在相同的采样率下,记录低频的信息远比高频的详细。这也是为什么有些音响发烧友指责CD有数码声不够真实的原因,CD的44.1KHz采样也无法保证高频信号被较好记录。要较好的记录高频信号,看来需要更高的采样率,于是有些朋友在捕捉CD音轨的时候使用48KHz的采样率,这是不可取的!这其实对音质没有任何好处,对抓轨软件来说,保持和CD提供的44.1KHz一样的采样率才是最佳音质的保证之一,而不是去提高它。较高的采样率只有相对模拟信号的时候才有用,如果被采样的信号是数字的,请不要去尝试提高采样率。 

    流特征 


    随着网络的发展,人们对在线收听音乐提出了要求,因此也要求音频文件能够一边读一边播放,而不需要把这个文件全部读出后然后回放,这样就可以做到不用下载就可以实现收听了。也可以做到一边编码一边播放,正是这种特征,可以实现在线的直播,架设自己的数字广播电台成为了现实。 
       
     

    二 android中AudioRecord采集音频的参数说明

    android中采集音频的apiandroid.media.AudioRecord

    其中构造器的几个参数就是标准的声音采集参数

    以下是参数的含义解释

    public AudioRecord (int audioSource, int sampleRateInHz, int channelConfig, int audioFormat, int bufferSizeInBytes)

    Since: API Level 3

    Class constructor.

    Parameters

    audioSource

    the recording source. See MediaRecorder.AudioSource for recording source definitions.

    音频源:指的是从哪里采集音频。这里我们当然是从麦克风采集音频,所以此参数的值为MIC

    sampleRateInHz

    the sample rate expressed in Hertz. Examples of rates are (but not limited to) 44100, 22050 and 11025.

    采样率:音频的采样频率,每秒钟能够采样的次数,采样率越高,音质越高。给出的实例是441002205011025但不限于这几个参数。例如要采集低质量的音频就可以使用40008000等低采样率。

    channelConfig

    describes the configuration of the audio channels. SeeCHANNEL_IN_MONO and CHANNEL_IN_STEREO

    声道设置:android支持双声道立体声和单声道。MONO单声道,STEREO立体声

    audioFormat

    the format in which the audio data is represented. SeeENCODING_PCM_16BIT and ENCODING_PCM_8BIT

    编码制式和采样大小:采集来的数据当然使用PCM编码(脉冲代码调制编码,即PCM编码。PCM通过抽样、量化、编码三个步骤将连续变化的模拟信号转换为数字编码。) android支持的采样大小16bit 或者8bit。当然采样大小越大,那么信息量越多,音质也越高,现在主流的采样大小都是16bit,在低质量的语音传输的时候8bit 足够了。

    bufferSizeInBytes

    the total size (in bytes) of the buffer where audio data is written to during the recording. New audio data can be read from this buffer in smaller chunks than this size. SeegetMinBufferSize(int, int, int) to determine the minimum required buffer size for the successful creation of an AudioRecord instance. Using values smaller than getMinBufferSize() will result in an initialization failure.

    采集数据需要的缓冲区的大小,如果不知道最小需要的大小可以在getMinBufferSize()查看。

    采集到的数据保存在一个byteBuffer中,可以使用流将其读出。亦可保存成为文件的形式

     

    三 Android 使用AudioRecord录音相关和音频文件的封装

    在Android中录音可以用MediaRecord录音,操作比较简单。但是不够专业,就是不能对音频进行处理。如果要进行音频的实时的处理或者音频的一些封装

    就可以用AudioRecord来进行录音了。

    这里给出一段代码。实现了AudioRecord的录音和WAV格式音频的封装。

    用AudioTrack和AudioTrack类可以进行边录边播,可以参考:http://blog.sina.com.cn/s/blog_6309e1ed0100j1rw.html

    我们这里的代码没有播放。但是有封装和详解,如下:

     

     

    [java] view plaincopy
    1. package com.ppmeet;  
    2.   
    3. import java.io.File;  
    4. import java.io.FileInputStream;  
    5. import java.io.FileNotFoundException;  
    6. import java.io.FileOutputStream;  
    7. import java.io.IOException;  
    8. import android.app.Activity;  
    9. import android.graphics.PixelFormat;  
    10. import android.media.AudioFormat;  
    11. import android.media.AudioRecord;  
    12. import android.media.MediaRecorder;  
    13. import android.os.Bundle;  
    14. import android.view.View;  
    15. import android.view.View.OnClickListener;  
    16. import android.view.Window;  
    17. import android.view.WindowManager;  
    18. import android.widget.Button;  
    19.   
    20. /** 
    21.  * class name:TestAudioRecord<BR> 
    22.  * class description:用AudioRecord来进行录音<BR> 
    23.  * PS: <BR> 
    24.  *  
    25.  * @version 1.00 2011/09/21 
    26.  * @author CODYY)peijiangping 
    27.  */  
    28. public class TestAudioRecord extends Activity {  
    29.     // 音频获取源  
    30.     private int audioSource = MediaRecorder.AudioSource.MIC;  
    31.     // 设置音频采样率,44100是目前的标准,但是某些设备仍然支持22050,16000,11025  
    32.     private static int sampleRateInHz = 44100;  
    33.     // 设置音频的录制的声道CHANNEL_IN_STEREO为双声道,CHANNEL_CONFIGURATION_MONO为单声道  
    34.     private static int channelConfig = AudioFormat.CHANNEL_IN_STEREO;  
    35.     // 音频数据格式:PCM 16位每个样本。保证设备支持。PCM 8位每个样本。不一定能得到设备支持。  
    36.     private static int audioFormat = AudioFormat.ENCODING_PCM_16BIT;  
    37.     // 缓冲区字节大小  
    38.     private int bufferSizeInBytes = 0;  
    39.     private Button Start;  
    40.     private Button Stop;  
    41.     private AudioRecord audioRecord;  
    42.     private boolean isRecord = false;// 设置正在录制的状态  
    43.     //AudioName裸音频数据文件  
    44.     private static final String AudioName = "/sdcard/love.raw";//不推荐这么写,可以用Enviroment.  
    45.     //NewAudioName可播放的音频文件  
    46.     private static final String NewAudioName = "/sdcard/new.wav";  
    47.   
    48.     public void onCreate(Bundle savedInstanceState) {  
    49.         super.onCreate(savedInstanceState);  
    50.         getWindow().setFormat(PixelFormat.TRANSLUCENT);// 让界面横屏  
    51.         requestWindowFeature(Window.FEATURE_NO_TITLE);// 去掉界面标题  
    52.         getWindow().setFlags(WindowManager.LayoutParams.FLAG_FULLSCREEN,  
    53.                 WindowManager.LayoutParams.FLAG_FULLSCREEN);  
    54.         // 重新设置界面大小  
    55.         setContentView(R.layout.main);  
    56.         init();  
    57.     }  
    58.   
    59.     private void init() {  
    60.         Start = (Button) this.findViewById(R.id.start);  
    61.         Stop = (Button) this.findViewById(R.id.stop);  
    62.         Start.setOnClickListener(new TestAudioListener());  
    63.         Stop.setOnClickListener(new TestAudioListener());  
    64.         creatAudioRecord();  
    65.     }  
    66.   
    67.     private void creatAudioRecord() {  
    68.         // 获得缓冲区字节大小  
    69.         bufferSizeInBytes = AudioRecord.getMinBufferSize(sampleRateInHz,  
    70.                 channelConfig, audioFormat);  
    71.         // 创建AudioRecord对象  
    72.         audioRecord = new AudioRecord(audioSource, sampleRateInHz,  
    73.                 channelConfig, audioFormat, bufferSizeInBytes);  
    74.     }  
    75.   
    76.     class TestAudioListener implements OnClickListener {  
    77.   
    78.         @Override  
    79.         public void onClick(View v) {  
    80.             if (v == Start) {  
    81.                 startRecord();  
    82.             }  
    83.             if (v == Stop) {  
    84.                 stopRecord();  
    85.             }  
    86.   
    87.         }  
    88.   
    89.     }  
    90.   
    91.     private void startRecord() {  
    92.         audioRecord.startRecording();  
    93.         // 让录制状态为true  
    94.         isRecord = true;  
    95.         // 开启音频文件写入线程  
    96.         new Thread(new AudioRecordThread()).start();  
    97.     }  
    98.   
    99.     private void stopRecord() {  
    100.         close();  
    101.     }  
    102.   
    103.     private void close() {  
    104.         if (audioRecord != null) {  
    105.             System.out.println("stopRecord");  
    106.             isRecord = false;//停止文件写入  
    107.             audioRecord.stop();  
    108.             audioRecord.release();//释放资源  
    109.             audioRecord = null;  
    110.         }  
    111.     }  
    112.   
    113.     class AudioRecordThread implements Runnable {  
    114.         @Override  
    115.         public void run() {  
    116.             writeDateTOFile();//往文件中写入裸数据  
    117.             copyWaveFile(AudioName, NewAudioName);//给裸数据加上头文件  
    118.         }  
    119.     }  
    120.   
    121.     /** 
    122.      * 这里将数据写入文件,但是并不能播放,因为AudioRecord获得的音频是原始的裸音频, 
    123.      * 如果需要播放就必须加入一些格式或者编码的头信息。但是这样的好处就是你可以对音频的 裸数据进行处理,比如你要做一个爱说话的TOM 
    124.      * 猫在这里就进行音频的处理,然后重新封装 所以说这样得到的音频比较容易做一些音频的处理。 
    125.      */  
    126.     private void writeDateTOFile() {  
    127.         // new一个byte数组用来存一些字节数据,大小为缓冲区大小  
    128.         byte[] audiodata = new byte[bufferSizeInBytes];  
    129.         FileOutputStream fos = null;  
    130.         int readsize = 0;  
    131.         try {  
    132.             File file = new File(AudioName);  
    133.             if (file.exists()) {  
    134.                 file.delete();  
    135.             }  
    136.             fos = new FileOutputStream(file);// 建立一个可存取字节的文件  
    137.         } catch (Exception e) {  
    138.             e.printStackTrace();  
    139.         }  
    140.         while (isRecord == true) {  
    141.             readsize = audioRecord.read(audiodata, 0, bufferSizeInBytes);  
    142.             if (AudioRecord.ERROR_INVALID_OPERATION != readsize) {  
    143.                 try {  
    144.                     fos.write(audiodata);  
    145.                 } catch (IOException e) {  
    146.                     e.printStackTrace();  
    147.                 }  
    148.             }  
    149.         }  
    150.         try {  
    151.             fos.close();// 关闭写入流  
    152.         } catch (IOException e) {  
    153.             e.printStackTrace();  
    154.         }  
    155.     }  
    156.   
    157.     // 这里得到可播放的音频文件  
    158.     private void copyWaveFile(String inFilename, String outFilename) {  
    159.         FileInputStream in = null;  
    160.         FileOutputStream out = null;  
    161.         long totalAudioLen = 0;  
    162.         long totalDataLen = totalAudioLen + 36;  
    163.         long longSampleRate = sampleRateInHz;  
    164.         int channels = 2;  
    165.         long byteRate = 16 * sampleRateInHz * channels / 8;  
    166.         byte[] data = new byte[bufferSizeInBytes];  
    167.         try {  
    168.             in = new FileInputStream(inFilename);  
    169.             out = new FileOutputStream(outFilename);  
    170.             totalAudioLen = in.getChannel().size();  
    171.             totalDataLen = totalAudioLen + 36;  
    172.             WriteWaveFileHeader(out, totalAudioLen, totalDataLen,  
    173.                     longSampleRate, channels, byteRate);  
    174.             while (in.read(data) != -1) {  
    175.                 out.write(data);  
    176.             }  
    177.             in.close();  
    178.             out.close();  
    179.         } catch (FileNotFoundException e) {  
    180.             e.printStackTrace();  
    181.         } catch (IOException e) {  
    182.             e.printStackTrace();  
    183.         }  
    184.     }  
    185.   
    186.     /** 
    187.      * 这里提供一个头信息。插入这些信息就可以得到可以播放的文件。 
    188.      * 为我为啥插入这44个字节,这个还真没深入研究,不过你随便打开一个wav 
    189.      * 音频的文件,可以发现前面的头文件可以说基本一样哦。每种格式的文件都有 
    190.      * 自己特有的头文件。 
    191.      */  
    192.     private void WriteWaveFileHeader(FileOutputStream out, long totalAudioLen,  
    193.             long totalDataLen, long longSampleRate, int channels, long byteRate)  
    194.             throws IOException {  
    195.         byte[] header = new byte[44];  
    196.         header[0] = 'R'// RIFF/WAVE header  
    197.         header[1] = 'I';  
    198.         header[2] = 'F';  
    199.         header[3] = 'F';  
    200.         header[4] = (byte) (totalDataLen & 0xff);  
    201.         header[5] = (byte) ((totalDataLen >> 8) & 0xff);  
    202.         header[6] = (byte) ((totalDataLen >> 16) & 0xff);  
    203.         header[7] = (byte) ((totalDataLen >> 24) & 0xff);  
    204.         header[8] = 'W';  
    205.         header[9] = 'A';  
    206.         header[10] = 'V';  
    207.         header[11] = 'E';  
    208.         header[12] = 'f'// 'fmt ' chunk  
    209.         header[13] = 'm';  
    210.         header[14] = 't';  
    211.         header[15] = ' ';  
    212.         header[16] = 16// 4 bytes: size of 'fmt ' chunk  
    213.         header[17] = 0;  
    214.         header[18] = 0;  
    215.         header[19] = 0;  
    216.         header[20] = 1// format = 1  
    217.         header[21] = 0;  
    218.         header[22] = (byte) channels;  
    219.         header[23] = 0;  
    220.         header[24] = (byte) (longSampleRate & 0xff);  
    221.         header[25] = (byte) ((longSampleRate >> 8) & 0xff);  
    222.         header[26] = (byte) ((longSampleRate >> 16) & 0xff);  
    223.         header[27] = (byte) ((longSampleRate >> 24) & 0xff);  
    224.         header[28] = (byte) (byteRate & 0xff);  
    225.         header[29] = (byte) ((byteRate >> 8) & 0xff);  
    226.         header[30] = (byte) ((byteRate >> 16) & 0xff);  
    227.         header[31] = (byte) ((byteRate >> 24) & 0xff);  
    228.         header[32] = (byte) (2 * 16 / 8); // block align  
    229.         header[33] = 0;  
    230.         header[34] = 16// bits per sample  
    231.         header[35] = 0;  
    232.         header[36] = 'd';  
    233.         header[37] = 'a';  
    234.         header[38] = 't';  
    235.         header[39] = 'a';  
    236.         header[40] = (byte) (totalAudioLen & 0xff);  
    237.         header[41] = (byte) ((totalAudioLen >> 8) & 0xff);  
    238.         header[42] = (byte) ((totalAudioLen >> 16) & 0xff);  
    239.         header[43] = (byte) ((totalAudioLen >> 24) & 0xff);  
    240.         out.write(header, 044);  
    241.     }  
    242.   
    243.     @Override  
    244.     protected void onDestroy() {  
    245.         close();  
    246.         super.onDestroy();  
    247.     }  
    248. }  

    声音的数字信息可以转化成波形图:貌似是很简单的一些算大
    byte[] buffer = new byte[bs]; isRun = true; while (isRun) { 
    int r = ar.read(buffer, 0, bs); 
    int v = 0; 
    // 将 buffer 内容取出,进行平方和运算 
    for (int i = 0; i < buffer.length; i++) { 
    // 这里没有做运算的优化,为了更加清晰的展示代码 
    v += buffer[i] * buffer[i]; 
    } 
    // 平方和除以数据总长度,得到音量大小。可以获取白噪声值,然后对实际采样进行标准化。 
    // 如果想利用这个数值进行操作,建议用 sendMessage 将其抛出,在 Handler 里进行处理。 
    Log.d("spl", String.valueOf(v / (float) r)); 
    原帖地址:点击打开

  • 相关阅读:
    Java为何大行其道
    Centos安装成功mysql-5.5.37
    ADO.NET与Oracle(一):获取多行记录集
    【spring data jpa】【mybatis】通过反射实现 更新/保存 实体的任意字段的操作
    【spring data jpa】spring data jpa的in查询
    【mybatis】mybatis中的<if test=“”>test中多条件
    【mybatis】in查询+判断list查询条件是否进行in查询
    【spring boot】【log4jdbc】使用log4jdbc打印mybatis的sql和Jpa的sql语句运行情况
    【mybatis】mybatis中 的# 和 $的区别
    【mybatis】时间范围 处理时间格式问题 + 查询当天 本月 本年 + 按当天 当月 范围 查询 分组
  • 原文地址:https://www.cnblogs.com/sowhat4999/p/4439837.html
Copyright © 2020-2023  润新知