2017-08-17 86 views
2

我在Xcode 9编程 - SWIFT 4 - MacOS的不IOS斯威夫特OSX音频直通,同时记录

下面我有一个基本的录音音频设置用于记录与耳机和麦克风的歌手。我希望它能像逻辑X一样反应。

在逻辑X中,您将要录制的音轨放入录音准备就绪,而发生此情况时,麦克风会路由至耳机,因此主唱可以听到自己的声音。在播放时,准备好的录音静音,主唱可以在这里录制。并且如果在回放期间按下了录音按钮,则主唱听到正在录制的人声。

我遇到的问题是将音频直接路由到音频输出。我不确定什么音频系统我应该使用AVAudioSession显然是iOS的 。我必须去Core Audio吗?我想坚持与SWIFT 4

任何意见,将不胜感激

这里是我迄今为止

import Cocoa 
import AVFoundation 

enum RecordingPreset: Int { 
    case Low = 0 
    case Medium 
    case High 

    func settings() -> Dictionary<String, Int> { 
     switch self { 
     case .Low: 
      return [AVLinearPCMBitDepthKey: 16, AVNumberOfChannelsKey : 1, AVSampleRateKey : 12_000, AVLinearPCMIsBigEndianKey : 0, AVLinearPCMIsFloatKey : 0] 

     case .Medium: 
      return [AVLinearPCMBitDepthKey: 16, AVNumberOfChannelsKey : 1, AVSampleRateKey : 24_000, AVLinearPCMIsBigEndianKey : 0, AVLinearPCMIsFloatKey : 0] 

     case .High: 
      return [AVLinearPCMBitDepthKey: 16, AVNumberOfChannelsKey : 1, AVSampleRateKey : 48_000, AVLinearPCMIsBigEndianKey : 0, AVLinearPCMIsFloatKey : 0] 
     } 
    } 

    func exportSettings() -> Dictionary <String, Int> { 

     var recordingSetting = self.settings() 
     recordingSetting[AVFormatIDKey] = Int(kAudioFormatLinearPCM) 
     recordingSetting[AVLinearPCMIsNonInterleaved] = 0 
     return recordingSetting 
    } 
}//eo RecordingPreset 



extension Array { 
    func firstObject() -> Element? { 
     var firstObject: Element? 
     if self.count > 0 { 
      firstObject = self[0] 
     } 
     return firstObject 
    } 

    func lastObject() -> Element? { 
     var lastObject: Element? 
     if self.count > 0 { 
      lastObject = self[self.endIndex - 1] 
     } 
     return lastObject 
    } 
} 

class MainWindowController: NSWindowController { 
    var audioEngine:AVAudioEngine! 
    var player:AVAudioPlayer! 
    var recorder: AVAudioRecorder? 

    override func windowDidLoad() { 
     super.windowDidLoad() 

    }//EO Overide 

    func createRecorder() ->() { 
     var initialisedRecorder: AVAudioRecorder? 
     let currentDate = NSDate() 
     let dateFormatter = DateFormatter() 
     dateFormatter.dateFormat = "dd-MM-yy HHmmss" 
     let fileName = "/RECORDING/Audio/Recording on " + dateFormatter.string(from: currentDate as Date) + ".wav" 
     let filePaths = NSSearchPathForDirectoriesInDomains(.documentDirectory, .userDomainMask, true) 
     if let firstPath = filePaths.firstObject() { 
      let recordingPath = firstPath + fileName 
      let url = NSURL(fileURLWithPath: recordingPath) 
      let selectedPreset = RecordingPreset.High 
      do { 
       initialisedRecorder = try AVAudioRecorder(url: url as URL, settings: selectedPreset.settings() 
       ) 
      }catch { 
       print("nope") 
      } 
      initialisedRecorder!.isMeteringEnabled = true 
      initialisedRecorder!.prepareToRecord() 
     } 
     recorder = initialisedRecorder 
    }//eo createRecorder 



    @IBAction func myRecord(_ sender: Any) { 
     print("RECORD") 
     createRecorder() 
     recorder?.record() 
    } 


    @IBAction func myStop(_ sender: Any) { 
     print("STOP") 
     recorder?.stop() 
     recorder = nil 
    } 



}//EnD oF thE wORld 

回答

1

您可以直接使用AVFoundation框架,而不是核心音频。对于pass-thru音频,您可以创建一个自定义的V3 AUAudioUnit子类,并将实例化的音频对象的输入renderblock中的数据传递到其输出缓冲区(可能使用循环FIFO),并具有相当低的延迟时间。

请注意,Apple(在Core Audio的2017年WWDC会议中)建议不要在实时音频上下文中使用Swift或Objective C方法,因此您可能需要在C中编写一小部分(缓冲区副本)。