Deleted articles cannot be recovered. Draft of this article would be also deleted. Are you sure you want to delete this article?
Copyright © 2024 Apple Inc. All rights reserved. Important Use Information By copying or making any use of the QuickTime Test Pattern movie files (“Movie Files”) below, you acknowledge that you have read and understand, and agree to, the Usage Agreement below that governs your use of the files. If you do not agree to the Agreement’s terms, do not copy or use the movie files in any way, without spe
オーディオ周りの変更点のまとめ。いい感じに進化していってる。 関連記事は以下 iOS 8.3 to iOS 9.0 API Differences Core Image - ObjecTips iOS 8.3 to iOS 9.0 API Differences オーディオ周り - ObjecTips iOS 8.3 to iOS 9.0 API Differences ネットワークとWeb周り - ObjecTips iOS 8.3 to iOS 9.0 API Differences CoreLocation - ObjecTips iOS 8.3 to iOS 9.0 API Differences CoreTelephony - ObjecTips AudioToolbox AudioServices extern void AudioServicesPlayAlertSoundW
はじめに 前回の記事では、iOS 8のオーディオ関連フレームワークの新機能について大まかに解説しました。今回は、iOS 8でAVFoundationフレームワークに新規追加されたAVAudioEngineやAVAudioPlayerNodeを使用した実装を解説していきます。(AVAudioEngineなどについての説明は前回の記事を御覧ください。) 目次 今回作るアプリについて 実装 (ファイルから再生する) 実装 (バッファから再生する) まとめ 今回作るアプリについて 今回の実装のNodeの構成はこんな感じです(Mixer NodeやOutput NodeはAVAudioEngineが内部的に持つNodeになります) 実装 (ファイルから再生する) 以下が実装例です。 「Nodeを作成して、Engineに装着し、Engineをスタートさせる」という流れになります。 @import AV
はじめに 本シリーズ「iOS Core Audio」ですが、 前回の第1回目の記事執筆からかなりの時間が経ってしまっています。 この間にiOS 8が発表され、オーディオ関連フレームワークに新しいクラスが追加されたり、 機能が強化されたりしました。 本記事では、iOS 8でのオーディオ関連フレームワークの変更点について見ていきます。 目次 iOS 8でのオーディオ関連フレームワークの主な変更点は以下の通りです。 「MIDI over Bluetooth」対応 新しいフレームワーク「CoreAudioKit Framework」の追加 AV Foundation Framework に新クラス追加 AV Audio Utility classes AVAudioEngine 「MIDI over Bluetooth」対応 MIDI over Bluetoothとは? Bluetooth Low
Focus PixelsThe iPhone 6 and 6 Plus have dedicated focus pixels which provide depth information using phase detection. Continuous auto-focus changes are very fast and very subtle. There's no throbbing effect as the lens steps through a full focus scan. Phase detection focus is so good, it is recommended you allow the focus to adjust while recording videos. In low light scenes, the AF mechanism may
+(Class)layerClass { return [AVPlayerLayer class]; } - (id)initWithFrame:(CGRect)frame { self = [super initWithFrame:frame]; if (self) { // Initialization code } return self; } @class AVPlayer; @interface ViewController () { AVPlayerView *playerView; AVPlayer *player; } - (void)viewDidLoad { [super viewDidLoad]; /*表示したいビデオのパスを取得 アプリ内のドキュメントフォルダから動画ファイルを取得する前提です */ NSArray *array = NSSearchPathForD
どうも、吉村です。 もう3回目です。 前回と前々回では、低レベルなAPIを通じて、SceneKitの世界へ旅立ちました。 なので今回は高レベルAPIを使って、より大きな世界へ飛躍しようと思います。 今回のチャレンジではSceneKitとAVFoundation、そしてCoreImageテクノロジーを統合します。 まずは準備として、立方体を用意します。 インターフェースビルダーの構成は特に目新しいものはなく、 単に IBOutlet SCNView *_view; だけバインドしておくだけになります。 今まで触れませんでしたが、 インターフェースビルダーで、 SceneViewのプロパティとして、Allow camera controlにチェックをつけておけば、 コードを書かなくても、マウスでの単純なカメラ回転などの処理を行ってくれます。 今回は、強制的なレンダリングループは必要ないので、P
リリース、障害情報などのサービスのお知らせ
最新の人気エントリーの配信
処理を実行中です
j次のブックマーク
k前のブックマーク
lあとで読む
eコメント一覧を開く
oページを開く