- 投稿日:2020-12-27T21:06:57+09:00
[Swift] PanModalでお手軽にモーダルを実装する
アプリを作るときに、モーダルシートを使うことは結構ありますよね。
そこで、簡単に実装できるようにライブラリを使っていきたいと思います。
今回はPanModal
を使って実装していきます。詳しく見たい方はこちらどうぞ↓
PanModalライブラリの導入
Podfileを作成して、以下の記述を行います
pod 'PanModal'表示するものを作る
まずは、PanModalをインポートしましょう
import UIKit import PanModalモーダルに表示させるクラスは
PanModalPresentable
が適用されていなければいけません。
今回モーダルに表示するクラスをModalViewController
とします。ModalViewController.swiftclass ModalViewController: UIViewController { override func viewDidLoad() { super.viewDidLoad() view.backgroundColor = .systemBlue } }ModalViewController.swiftextension ModalViewController: PanModalPresentable { var panScrollable: UIScrollView? { return nil } // モーダルの高さを画面下端から100にする(モーダルを表示した時のデフォルトの高さ) var shortFormHeight: PanModalHeight { return .contentHeight(200) } // モーダルの高さを画面上端から最大500に制限する // この値を設定しないとモーダルが画面の一番上までスワイプできてしまう var longFormHeight: PanModalHeight { return .maxHeightWithTopInset(400) } // モーダルの背景色 var panModalBackgroundColor: UIColor { return UIColor.black.withAlphaComponent(0.2) } // 上にスワイプできるかどうか(デフォルトではtrue) var anchorModalToLongForm: Bool { return false } // モーダル上端の角に丸みをつけるかどうか var shouldRoundTopCorners: Bool { return true } // ホームボタンがないスマホのホームバーみたいなやつを表示するかどうか var showDragIndicator: Bool { return true } // 表示したモーダルをユーザーが操作できるかどうか(falseにすると操作できなくなる) var isUserInteractionEnabled: Bool { return false } }表示させるものを作る
ViewController.swiftclass ViewController: UIViewController { let button: UIButton = { let button = UIButton() button.setTitle("表示!", for: .normal) button.titleLabel?.font = .boldSystemFont(ofSize: 20) button.layer.cornerRadius = 20 button.backgroundColor = .orange return button }() override func viewDidLoad() { super.viewDidLoad() button.frame = CGRect(x: 0, y: 0, width: 100, height: 100) button.center = view.center button.addTarget(self, action: #selector(presentModal(_:)), for: .touchUpInside) view.addSubview(button) } @objc func presentModal(_ sender: UIButton) { presentPanModal(ModalViewController()) } }モーダルを表示するときは
presentPanModal
に、モーダル用に作ったModalViewController
を入れて呼び出してあげなければいけません。
この例で言うとボタンにモーダルを表示する処理を加えてpresentPanModal
を呼び出しています。表示結果
最後に
Panといえばあるピアニストが思い浮かぶ私ですが、まあまあわかりやすく書けたかなと思います。
ライブラリは便利なのでみんな使っていこう!と言うことで、読んでくださりありがとうがございました。
- 投稿日:2020-12-27T15:18:15+09:00
ARKit+CoreML+LiDAR で 物体のコピー
前回の記事『ARKit+Vision+iOS14 で らくがき のジオメトリ化』でらくがきをコピーしたので、今回は物体をコピーするために必要な処理を調べてみた。
概要としては、物体の切り出しに Vision+CoreML(DeeplabV3)、立体感を出すのにARKit の depthMap(iOS14〜) を利用。立体感は深度情報をコピーボタンタップのワンショットでしか取得しないため、立て看板に立体感を与えた感じまで。
↓は車をコピーした結果を SCNView で表示したときのもの。
この記事では主に depthMap を使うにあたり苦労した点を説明します。本題に入る前にARKitから取得できる深度情報とその信頼度について。
depthMap
iPhone12Pro等、LiDAR搭載の端末では、背面カメラからリアルタイムに深度情報を取得できる。
この例は画面中段部分の深度情報をグレースケールで可視化しているが、実際には 深度情報は カメラからの距離で単位はメートル(iPhone12Proで確認すると型はFloat32。この例は0〜5mを0〜255階調で表示)。このgif動画だと深度が少し遅れているように見えるが、これはiOSの画面収録を利用しているせいで、収録しなければ遅延はほとんど分からないレベル。
深度情報の取得・加工方法については後述。confidenceMap
ARKitからは深度情報とあわせて、その情報の信頼度を深度情報と同じ解像度で取得することができる。
精度は ARConfidenceLevel で定義されていて low, medium, high の3段階。high が一番信頼できることを表す。
精度情報をlow = 黒、medium = グレー、high = 白 として画像化したのがこれ。
物体の輪郭部分の精度が比較的よくないこと、カメラの向きの方向に指のような細かな物体が並んでいると精度が悪いことがわかる(物体のカメラをむている面は信頼度が高く、側面向かうにしたがって信頼度が落ちていく、という傾向に見える。LiDARのセンサーは一箇所なので、センサーから見えにくい側面の精度は落ちる、というのは納得)。【本題】 物体のコピーのしかた
この記事では次の手順で実現。
①キャプチャした画像の中心部分を 513 x 513ピクセルで切り取る
②深度情報を①の位置・アスペクト比で切り取る
③深度の信頼度情報を②と同様に切り取る
④Vision+CoreMLを使って①をセグメンテーション
⑤④で認識した物体、且、③の信頼度の高い部分の座標を取得
⑥⑤の深度情報(2D)を3D座標に変換
⑦⑥を3Dモデル化して、シーンに追加苦労したのが②。
①で切り出した位置・サイズに合わせて深度情報を取得する必要がありこの変換が面倒だった。③で信頼度を取得しそれを⑤の判定で利用しているが、これは、物体と背景、物体と物体の境界部分の深度値が疑わしい場合が多く(極端に距離が遠く)、3Dモデルがおかしくなることを抑止するためにやっている。
以下、手順を解説します。
①キャプチャした画像の中心部分を 513 x 513ピクセルで切り取る
物体を切り出すためにVision+CoreMLを利用しており、Core MLモデルは Apple が公開しているDeeplabV3モデル を利用。このCoreMLモデルで扱える画像サイズが 513 x 513 であるため、キャプチャした画像の中心部分をこのサイズで切り取る。
ここでARKitから渡されるキャプチャ画像は、端末の向き・画面サイズが考慮されていない。表示されている部分を切り出す方法は以前書いたARKit+Vision+iOS14 で らくがき のジオメトリ化①【輪郭検出】で解説しているので参照ください。②深度情報を①の位置・アスペクト比で切り取る
深度情報は Float32の配列 で提供される。したがって、深度情報を切り出したり加工したりするのに CIImage/CGImage は使えない。この記事のサンプルを作り始めた時は画像として取り扱えばいいか、と考えたが単位がメートルなので別物。。。Float32を8bit単位に分割してRGBAに割り当てて、、、も頭によぎったが、加工中にもとのFloat32に戻らなくなるかもしれない(カラースペースとかエッジの処理とかで)のでちゃんとやることにした。
深度情報
depthMap
はARFrame
のsceneDepth
経由で取得できる。
このサンプルではARFrame
の extension から取得しているので次のようになる。guard let pixelBuffer = self.sceneDepth?.depthMap else { return ([], 0) }iPhone12Pro+iOS14.2 で確認すると
depthMap
で取得できる深度情報のサイズは
256 x 192
となっている。
一方、ARFrame
のcapturedImage
から取得できる画像の解像度は
1920 x 1440
である。
両方とも 1.333 : 1 なので、①と同様にARFrame
のdisplayTransform
を使えば切り取れそうである。var displayTransform = self.displayTransform(for: .portrait, viewportSize: viewPortSize)
displayTransform
を取得するあたりviewPortSize
に何を設定するかがまず悩む。APIドキュメントには「The size, in points, of the view intended for rendering the camera image.(カメラ画像のレンダリングを目的としたビューのサイズ(ポイント単位))」とあるので、描画サイズを指定したいところであるが、深度情報は画面サイズとは異なる。APIドキュメントには「The affine transform does not scale to the viewport's pixel size.(アフィン変換は、ビューポートのピクセルサイズに合わせて拡大縮小されません)」とも記載されており、画面サイズではなくてアスペクト比を与えればいいんじゃないか?と考えて実際に確認した結果が次の通り(iPhone12Pro+iOS14.2で確認)。アスペクト比を与えてみる:CGSize(width: 1.0, height: 844 / 390)
▿ CGAffineTransform
- a : 0.0
- b : 1.0
- c : -1.623076923076923
- d : 0.0
- tx : 1.3115384615384615
- ty : -0.0画面サイズ(pt)を与えてみる:CGSize(width: 390, height: 844)
▿ CGAffineTransform
- a : 0.0
- b : 1.0
- c : -1.623076923076923
- d : 0.0
- tx : 1.3115384615384615
- ty : -0.0一致している。
画面のアスペクト比を設定することにする。
ここからはアフィン変換行列を使って depthMap データを画面に見えている、且つ、CoreMLで解析できる範囲で抽出する。
displayTransform
はCGAffineTransform
で中身は次の行列になっている。\begin{bmatrix} a & b & 0 \\ c & d & 0 \\ t_{x} & t_{y} & 1 \\ \end{bmatrix}ポートレートの場合、キャプチャ画像(および深度情報)のX軸、Y軸がひっくり返っているので、それを加味する。
\begin{bmatrix} -1 & 0 & 0 \\ 0 & -1 & 0 \\ 1 & 1 & 1 \\ \end{bmatrix} \begin{bmatrix} a & b & 0 \\ c & d & 0 \\ t_{x} & t_{y} & 1 \\ \end{bmatrix} = \begin{bmatrix} -a & -b & 0 \\ -c & -d & 0 \\ a+c+t_{x} & b+d+t_{y} & 1 \\ \end{bmatrix}\begin{bmatrix} x' & y' & 1 \\ \end{bmatrix} = \begin{bmatrix} x & y & 1 \\ \end{bmatrix} × \begin{bmatrix} -a & -b & 0 \\ -c & -d & 0 \\ a+c+t_{x} & b+d+t_{y} & 1 \\ \end{bmatrix}x' = -ax + -cy + a + c + t_{x} \\ = -a(x-1)-c(y-1)+ t_{x} \\ y' = -bx + -dy + b + d + t_{y} \\ = -b(x-1)-d(y-1)+ t_{y} \\取得済みの値を当てはめてみる。
x' = 1.62(y-1)+ 1.31 \\ y' = -(x-1) \\この結果からわかることは次の通り。
- x軸とy軸は入れ替わる。
- 変換後のxは -0.31 〜 1.31 の値をとる。つまり、変換前のyの中央の 1/1.62 部分しか表示されない(確認した限りでは表示されるのは0〜1の範囲)。
- 変換後の y は 1.0 〜 0.0 の値をとる。つまり、変換前のx方向の全てが表示される。
変換後のx軸の両サイドを切り落とす必要があるので、そのサイズを求める。切り取るのは中央部分であることがわかっているので c と深度情報の height で求める。
let sideCutoff = Int((1.0 - (1.0 / displayTransform.c)) / 2.0 * CGFloat(pixelBuffer.height))これを計算すると 36 となる。取得した深度情報のサイズは 256 x 192 なので両側 36 を切り落とすと変換後は 120 x 256 (縦横は入れ替わる)ということになる。
あとは、CoreMLに渡すデータが正方形なので、それに合わせて正方形部分を切り出す。結果は120x120のサイズになる。
func cropPortraitCenterData<T>(sideCutoff: Int) -> ([T], Int) { CVPixelBufferLockBaseAddress(self, CVPixelBufferLockFlags(rawValue: CVOptionFlags(0))) guard let baseAddress = CVPixelBufferGetBaseAddress(self) else { return ([], 0) } let pointer = UnsafeMutableBufferPointer<T>(start: baseAddress.assumingMemoryBound(to: T.self), count: width * height) var dataArray: [T] = [] // 画面上の横幅のサイズを計算。画面の横サイズいっぱいから左右は切り落とした値。 // ※紛らわしいがポートレート時にARKitから取得されるデータは横向きなので height で計算。 let size = height - sideCutoff * 2 // 画面の縦方向の中央部分のデータを取得。取得順番は上下逆転。 for x in (Int((width / 2) - (size / 2)) ..< Int((width / 2) + (size / 2))).reversed() { // 画面の横方向の中央部分のデータを取得。取得順番は左右逆転。 for y in (sideCutoff ..< (height - sideCutoff)).reversed() { let index = y * width + x dataArray.append(pointer[index]) } } CVPixelBufferUnlockBaseAddress(self, CVPixelBufferLockFlags(rawValue: CVOptionFlags(0))) return (dataArray, size) }切り出す処理は
CVPixelBuffer
の extension で書いた。
後述する深度の信頼度情報の場合、CVPixelBuffer
に格納されているデータがUInt8の配列のため、型はジェネリクスで扱っている。
配列の中身を一発でアフィン変換してくれるようなものが見つからなかったので、x軸とy軸の入れ替え&データの上下左右逆にする処理も自力で実装するしかなかった(ポートレートのみだけど)。
ここまで変換できれば後は、この記事の冒頭部分のdepthMap,confidenceMapのgif動画のようにカメラキャプチャ画像と合成することも容易になる(ちなみにMetalでMTLTextureに変換して収録)。③深度の信頼度情報を②と同様に切り取る
処理内容は②と同様。
confidenceMap
はARFrame
のsceneDepth
経由で取得できる。guard let pixelBuffer = self.sceneDepth?.confidenceMap else { return ([], 0) }深度情報は Float32 であるのに対し信頼度情報は UInt8 である点に注意。
④Vision+CoreMLを使って①をセグメンテーション
Vison+CoreML(DeepLabV3) を使って物体のセグメンテーション を行う。
やり方はこの参考記事『Simple Semantic Image Segmentation in an iOS Application — DeepLabV3 Implementation』 と同様。DeepLabV3 でセグメンテーションできる物体の種類は、XcodeからMetadataを参照すると次の通り。
実際に手を認識させるとラベル値=15("labels"のpersonの位置)が得られる。
これは手を撮影してセグメンテーション結果をキャプチャ画像に重ねて表示した例。
手の認識が若干遅れていているのがわかる。今回は人体だけでなく車とか植木鉢を認識させたかったので DeepLabV3 を利用してみたが、人体を認識させたいだけならARKitのピープルオクルージョンの方が高速。
参考:ARKit+Metal で みんな超サイヤ人ポイントになるのはセグメンテーション結果が格納される
MLMultiArray
へのアクセス方法。
MLMultiArray
にはdataPointer
というプロパティがあり、assumingMemoryBound(to:) を通して配列としてアクセスができる。guard let observations = request.results as? [VNCoreMLFeatureValueObservation], let segmentationmap = observations.first?.featureValue.multiArrayValue else { return } // セグメンテーション結果はInt32の配列 let labels = segmentationmap.dataPointer.assumingMemoryBound(to: Int32.self) let centerLabel = labels[centerIndex]Int32の配列としてアクセスしている。これはXcodeから DeepLabV3.mlmodel を確認すると、そのように定義されているから。実際にInt32で値は正しく取れる。
⑤④で認識した物体、且、③の信頼度の高い部分の座標を取得
次のルールで描画するか否かを決める。
- セグメンテーション結果のうち、画面の中央と同じ物体のみ表示
- 深度情報の信頼度が高い部分のみ表示
セグメンテーション結果は下記
isInSegment
部分で判定。let depthDeeplabV3ScaleFactor = Float(self.detectSize) / Float(self.depthSize) // 検出解像度/デプス解像度比 let isInSegment: (Int, Int) -> Bool = { (x, y) in guard x < self.depthSize && y < self.depthSize else { return false } let segmentX = Int(Float(x) * depthDeeplabV3ScaleFactor + depthDeeplabV3ScaleFactor / 2) let segmentY = Int(Float(y) * depthDeeplabV3ScaleFactor + depthDeeplabV3ScaleFactor / 2) let segmentIndex = (segmentedImageSize - segmentY - 1) * segmentedImageSize + segmentX // 中央のラベルと一致する場合、モデル化 return labels[segmentIndex] == centerLabel }引数は深度情報の座標。今回のサンプルをiPhone12Pro+iOS14.2 で動作させると深度情報は 120x120 となるので、この座標に対応するセグメンテーション結果(513x513) で判定。
信頼度の判定は下記
isConfidentDepth
部分で判定。// 信頼度が高い深度情報のみ3Dモデル化 let isConfidentDepth: (Int, Int) -> Bool = { (x, y) in guard x < self.depthSize && y < self.depthSize else { return false } return self.depthArray[y * self.depthSize + x] >= 0.0 }この判定処理の前に
depthArray
の中で信頼度の低い深度情報を -1 にしているので 0.0 以上が有効と判定している。ちなみに、-1 を設定している場所はこの部分。
guard depthArray.count == depthConfidenceArray.count else { return } self.depthArray = depthConfidenceArray.enumerated().map { // 信頼度が high 未満は深度を -1 に書き換え return $0.element >= UInt8(ARConfidenceLevel.high.rawValue) ? depthArray[$0.offset] : -1 }深度の信頼度情報をチェックして、対応する深度情報の値を書き換えている。
⑥⑤の深度情報(2D)を3D座標に変換
self.cameraIntrinsicsInversed = frame.camera.intrinsics.inverse // (略) let depth = self.depthArray[y * self.depthSize + x] let x_px = Float(x) * depthScreenScaleFactor let y_px = Float(y) * depthScreenScaleFactor // 2Dの深度情報を3Dに変換 let localPoint = cameraIntrinsicsInversed * simd_float3(x_px, y_px, 1) * depth
ARCamera
のintrinsics
には、3Dのスケールを2Dに変換する行列が入っている。なので、この逆行列を使うことで、2Dとなっている深度情報を3Dのスケールに広げることができる。
この部分のコードはAppleのLiDARのサンプル Visualizing a Point Cloud Using Scene Depth を流用。
intrinsics
の中身についてはこちらの記事 『ARKitで本物のオセロ盤に評価値を重畳表示してみた』 でイメージがつきました。ここまでで3Dとして表示すべき情報(任意の画像セグメント、且つ、信頼度の高い深度情報を持つの部分の3D座標)を手に入れたのでこれをモデル化する。
⑦⑥を3Dモデル化して、シーンに追加
深度情報の配列の並びを基に3Dにする。
深度情報の、とある位置おいて、真下と右隣の深度情報で三角形、左隣下と真下の深度情報で三角形、というルールでポリゴンを作っていく。// 三角形(下向き) if isInSegment(x, y), isInSegment(x, y + 1), isInSegment(x + 1, y), isConfidentDepth(x, y), isConfidentDepth(x, y + 1), isConfidentDepth(x + 1, y) { // セグメント内、且、深度情報の信頼度が高いならポリゴンのインデックスを追加 indices.append(Int32(y * self.depthSize + x)) indices.append(Int32(y * self.depthSize + x + 1)) indices.append(Int32((y + 1) * self.depthSize + x)) if localPoint.y > yMax { yMax = localPoint.y } if localPoint.y < yMin { yMin = localPoint.y } } // 三角形(上向き) if isInSegment(x, y), isInSegment(x - 1, y + 1), isInSegment(x, y + 1), isConfidentDepth(x, y), isConfidentDepth(x - 1, y + 1), isConfidentDepth(x, y + 1){ // セグメント内、且、深度情報の信頼度が高いならポリゴンのインデックスを追加 indices.append(Int32(y * self.depthSize + x)) indices.append(Int32((y + 1) * self.depthSize + x)) indices.append(Int32((y + 1) * self.depthSize + x - 1)) if localPoint.y > yMax { yMax = localPoint.y } if localPoint.y < yMin { yMin = localPoint.y } }このルールだけだと境界部分の精度が悪いとギザギザが目立つ。改良の余地あり。
ジオメトリ&ノードの作り方の詳細はこちらの記事 『SceneKitでカスタムジオメトリの作り方+おまけ』 が詳しいです。
ジオメトリ ができたら床との衝突判定ができるようにする。
let bodyGeometry = SCNBox(width: 5.0, height: CGFloat(yMax - yMin), length: 5.0, chamferRadius: 0.0) let bodyShape = SCNPhysicsShape(geometry: bodyGeometry, options: nil) node.physicsBody = SCNPhysicsBody(type: .dynamic, shape: bodyShape) // 3m上から落とす node.simdWorldPosition = SIMD3<Float>(0.0, 3.0, 0.0) DispatchQueue.main.async { self.scnView.scene.rootNode.addChildNode(node) }作ったジオメトリの形状は深度情報を基にしているので、カメラから対象物体の距離までのサイズとなる。このとき、ジオメトリの原点はカメラの位置になる。衝突判定に用いる
SCNPhysicsShape
もジオメトリ のサイズに合わせるべきだが、今回は床に衝突できれば良いので、高さだけジオメトリ の高さを設定し、横幅・奥行きは確実に衝突すると考えられるサイズ(5m)にしている。最後に
今回作ったサンプルは、カメラを原点としてカメラが向いている方向を基準にジオメトリを作っている(カメラの向きが基準となっている)。なので、水平面は考慮していないし向きも考慮していない。
上の例では、車を斜めから見下ろして撮影したので、その向きでジオメトリが作られている。
水平をきちんと考慮すれば、外側の白い線(BoundingBox)に水平なジオメトリを作れるはず。
この辺りは、AppleのLiDARのサンプル Visualizing a Point Cloud Using Scene Depth が描画時にきちんとワールド座標に変換してやってそうだったのでまた別の機会で対応。説明は以上です。
手探りで作ったので間違っているところや、こうやれば良い、という部分があると思います。
指摘もらえると助かります。全体ソースコード
ViewController.swiftimport ARKit import Vision import UIKit import SceneKit class ViewController: UIViewController, ARSessionDelegate, ARSCNViewDelegate { @IBOutlet weak var scnView: ARSCNView! // セグメンテーション範囲。DeepLabV3.mlmodelの画像サイズに合わせる private let detectSize: CGFloat = 513.0 // Vision Model private var visonRequest: VNCoreMLRequest? // デプス加工結果 private var depthArray: [Float32] = [] private var depthSize = 0 private var cameraIntrinsicsInversed: simd_float3x3? // 3Dのテクスチャ画像。コピーボタン押下時のキャプチャ画像が設定される。 private var texutreImage: CGImage? // コピーボタンが押下状態 private var isButtonPressed = false // 床の厚さ(m) private let floorThickness: CGFloat = 0.5 // 床のローカル座標。床の厚さ分、Y座標を下げる private lazy var floorLocalPosition = SCNVector3(0.0, -floorThickness/2, 0.0) // 最初に認識したアンカー private var firstAnchorUUID: UUID? override func viewDidLoad() { super.viewDidLoad() // CoreMLの設定 setupVison() // AR Session 開始 self.scnView.delegate = self self.scnView.session.delegate = self let configuration = ARWorldTrackingConfiguration() if ARWorldTrackingConfiguration.supportsFrameSemantics(.sceneDepth) { configuration.planeDetection = [.horizontal] configuration.frameSemantics = [.sceneDepth] self.scnView.session.run(configuration, options: [.removeExistingAnchors, .resetTracking]) } else { print("この端末では動作しません") } } // アンカーが追加された func renderer(_: SCNSceneRenderer, didAdd node: SCNNode, for anchor: ARAnchor) { guard anchor is ARPlaneAnchor, self.firstAnchorUUID == nil else { return } self.firstAnchorUUID = anchor.identifier // 床ノードを追加 let floorNode = SCNScene.makeFloorNode(width: 10.0, height: self.floorThickness, length: 10.0) floorNode.position = floorLocalPosition DispatchQueue.main.async { node.addChildNode(floorNode) } } // アンカーが更新された func renderer(_: SCNSceneRenderer, didUpdate node: SCNNode, for anchor: ARAnchor) { guard anchor is ARPlaneAnchor else { return } if let childNode = node.childNodes.first { DispatchQueue.main.async { // 床ノードの位置を再設定 childNode.position = self.floorLocalPosition } } } // ARフレームが更新された func session(_ session: ARSession, didUpdate frame: ARFrame) { guard self.isButtonPressed else { return } self.isButtonPressed = false let aspectRatio = self.scnView.bounds.height / self.scnView.bounds.width // キャプチャ画像の中央をDeeplabV3のサイズ(513x513)で切り抜く let image = frame.cropCenterSquareImage(fullWidthScale: self.detectSize, aspectRatio: aspectRatio, orientation: self.scnView.window!.windowScene!.interfaceOrientation) let context = CIContext(options: nil) self.texutreImage = context.createCGImage(image, from: image.extent) // 深度情報を取得 let (depthArray, depthSize) = frame.cropPortraitCenterSquareDepth(aspectRatio: aspectRatio) // 深度の信頼度情報を取得 let (depthConfidenceArray, _) = frame.cropPortraitCenterSquareDepthConfidence(aspectRatio: aspectRatio) // 信頼度が高い深度情報のみ抽出 guard depthArray.count == depthConfidenceArray.count else { return } self.depthArray = depthConfidenceArray.enumerated().map { // 信頼度が high 未満は深度を -1 に書き換え return $0.element >= UInt8(ARConfidenceLevel.high.rawValue) ? depthArray[$0.offset] : -1 } self.depthSize = depthSize // 「カメラの焦点距離と中心点オフセット情報」の逆行列。2Dの深度情報を3Dに広げるために準備。参考:https://qiita.com/tanaka-a/items/042fdbd3da6d6332e7e2 self.cameraIntrinsicsInversed = frame.camera.intrinsics.inverse // セグメンテーション 実行 let handler = VNImageRequestHandler(ciImage: image, options: [:]) try? handler.perform([self.visonRequest!]) } // コピーボタンが押された @IBAction func pressButton(_ sender: Any) { isButtonPressed = true } } // MARK: - extension ViewController { private func setupVison() { guard let visionModel = try? VNCoreMLModel(for: DeepLabV3(configuration: MLModelConfiguration()).model) else { return } let request = VNCoreMLRequest(model: visionModel) { request, error in // セグメンテーション結果受け取り guard let observations = request.results as? [VNCoreMLFeatureValueObservation], let segmentationmap = observations.first?.featureValue.multiArrayValue else { return } // マスク部分の3Dモデル生成 self.draw3DModel(segmentationmap: segmentationmap) } request.imageCropAndScaleOption = .centerCrop self.visonRequest = request } private func draw3DModel(segmentationmap: MLMultiArray) { guard !self.depthArray.isEmpty, let cameraIntrinsicsInversed = self.cameraIntrinsicsInversed else { return } // セグメンテーション結果はInt32の配列 let labels = segmentationmap.dataPointer.assumingMemoryBound(to: Int32.self) // 画面中央のラベルを取得 let segmentedImageSize = Int(self.detectSize) let centerIndex = (segmentedImageSize / 2) * segmentedImageSize + (segmentedImageSize / 2) let centerLabel = labels[centerIndex] print("画面中央のラベル値 [\(centerLabel)]") // 深度情報のサイズ(このサンプルをiPhone12Pro+iOS14.2で実行した場合は120x120)を軸にして、セグメンテーション結果(513x513)を参照して3Dモデル対象か判定 let depthDeeplabV3ScaleFactor = Float(self.detectSize) / Float(self.depthSize) // 検出解像度/デプス解像度比 let isInSegment: (Int, Int) -> Bool = { (x, y) in guard x < self.depthSize && y < self.depthSize else { return false } let segmentX = Int(Float(x) * depthDeeplabV3ScaleFactor + depthDeeplabV3ScaleFactor / 2) let segmentY = Int(Float(y) * depthDeeplabV3ScaleFactor + depthDeeplabV3ScaleFactor / 2) let segmentIndex = (segmentedImageSize - segmentY - 1) * segmentedImageSize + segmentX // 中央のラベルと一致する場合、モデル化 return labels[segmentIndex] == centerLabel } // 信頼度が高い深度情報のみ3Dモデル化 let isConfidentDepth: (Int, Int) -> Bool = { (x, y) in guard x < self.depthSize && y < self.depthSize else { return false } return self.depthArray[y * self.depthSize + x] >= 0.0 } // ポリゴン頂点座標、テクスチャ座標を生成 var vertices: [SCNVector3] = [] var texcoords: [CGPoint] = [] var indices: [Int32] = [] var yMax: Float = 0.0 var yMin: Float = 0.0 let depthScreenScaleFactor = Float(self.scnView.bounds.width * UIScreen.screens.first!.scale / CGFloat(self.depthSize)) for y in 0 ..< self.depthSize { for x in 0 ..< self.depthSize { // 頂点座標を作成(最終的に表示しないものも作る) let depth = self.depthArray[y * self.depthSize + x] let x_px = Float(x) * depthScreenScaleFactor let y_px = Float(y) * depthScreenScaleFactor // 2Dの深度情報を3Dに変換 let localPoint = cameraIntrinsicsInversed * simd_float3(x_px, y_px, 1) * depth // 深度情報はプラス、SceneKitは奥がマイナスなのでZは符号反転 vertices.append(SCNVector3(localPoint.x, localPoint.y, -localPoint.z)) // キャプチャ画像上の座標をテクスチャ座標とする let x_coord = CGFloat(x) * CGFloat(depthDeeplabV3ScaleFactor) / self.detectSize let y_coord = CGFloat(y) * CGFloat(depthDeeplabV3ScaleFactor) / self.detectSize texcoords.append(CGPoint(x: x_coord, y: 1 - y_coord)) // 三角形(下向き) if isInSegment(x, y), isInSegment(x, y + 1), isInSegment(x + 1, y), isConfidentDepth(x, y), isConfidentDepth(x, y + 1), isConfidentDepth(x + 1, y) { // セグメント内、且、深度情報の信頼度が高いならポリゴンのインデックスを追加 indices.append(Int32(y * self.depthSize + x)) indices.append(Int32(y * self.depthSize + x + 1)) indices.append(Int32((y + 1) * self.depthSize + x)) if localPoint.y > yMax { yMax = localPoint.y } if localPoint.y < yMin { yMin = localPoint.y } } // 三角形(上向き) if isInSegment(x, y), isInSegment(x - 1, y + 1), isInSegment(x, y + 1), isConfidentDepth(x, y), isConfidentDepth(x - 1, y + 1), isConfidentDepth(x, y + 1){ // セグメント内、且、深度情報の信頼度が高いならポリゴンのインデックスを追加 indices.append(Int32(y * self.depthSize + x)) indices.append(Int32((y + 1) * self.depthSize + x)) indices.append(Int32((y + 1) * self.depthSize + x - 1)) if localPoint.y > yMax { yMax = localPoint.y } if localPoint.y < yMin { yMin = localPoint.y } } } } // ジオメトリ作成 let vertexSource = SCNGeometrySource(vertices: vertices) let texcoordSource = SCNGeometrySource(textureCoordinates: texcoords) let geometryElement = SCNGeometryElement(indices: indices, primitiveType: .triangles) let geometry = SCNGeometry(sources: [vertexSource, texcoordSource], elements: [geometryElement]) // マテリアル作成 let material = SCNMaterial() material.lightingModel = .constant material.diffuse.contents = self.texutreImage geometry.materials = [material] // ノード作成 let node = SCNNode(geometry: geometry) // 衝突判定のサイズは床にぶつかるようにするだけでサイズは適当。 let bodyGeometry = SCNBox(width: 5.0, height: CGFloat(yMax - yMin), length: 5.0, chamferRadius: 0.0) let bodyShape = SCNPhysicsShape(geometry: bodyGeometry, options: nil) node.physicsBody = SCNPhysicsBody(type: .dynamic, shape: bodyShape) // 3m上から落とす node.simdWorldPosition = SIMD3<Float>(0.0, 3.0, 0.0) DispatchQueue.main.async { self.scnView.scene.rootNode.addChildNode(node) } } }SwiftExtensions.swiftimport UIKit import ARKit extension CVPixelBuffer { var width: Int { CVPixelBufferGetWidth(self) } var height: Int { CVPixelBufferGetHeight(self) } func cropPortraitCenterData<T>(sideCutoff: Int) -> ([T], Int) { CVPixelBufferLockBaseAddress(self, CVPixelBufferLockFlags(rawValue: CVOptionFlags(0))) guard let baseAddress = CVPixelBufferGetBaseAddress(self) else { return ([], 0) } let pointer = UnsafeMutableBufferPointer<T>(start: baseAddress.assumingMemoryBound(to: T.self), count: width * height) var dataArray: [T] = [] // 画面上の横幅のサイズを計算。画面の横サイズいっぱいから左右は切り落とした値。 // ※紛らわしいがポートレート時にARKitから取得されるデータは横向きなので height で計算。 let size = height - sideCutoff * 2 // 画面の縦方向の中央部分のデータを取得。取得順番は上下逆転。 for x in (Int((width / 2) - (size / 2)) ..< Int((width / 2) + (size / 2))).reversed() { // 画面の横方向の中央部分のデータを取得。取得順番は左右逆転。 for y in (sideCutoff ..< (height - sideCutoff)).reversed() { let index = y * width + x dataArray.append(pointer[index]) } } CVPixelBufferUnlockBaseAddress(self, CVPixelBufferLockFlags(rawValue: CVOptionFlags(0))) return (dataArray, size) } } extension ARFrame { func cropCenterSquareImage(fullWidthScale: CGFloat, aspectRatio: CGFloat, orientation: UIInterfaceOrientation) -> CIImage { let pixelBuffer = self.capturedImage // 入力画像をスクリーンサイズに変換 let imageSize = CGSize(width: pixelBuffer.width, height: pixelBuffer.height) let image = CIImage(cvImageBuffer: pixelBuffer) // 1) 入力画像を 0.0〜1.0 の座標に変換 let normalizeTransform = CGAffineTransform(scaleX: 1.0/imageSize.width, y: 1.0/imageSize.height) // 2) ポートレートの場合、X軸Y軸を反転 var flipTransform = CGAffineTransform.identity if orientation.isPortrait { // X軸Y軸共に反転 flipTransform = CGAffineTransform(scaleX: -1, y: -1) // X軸Y軸共にマイナス側に移動してしまうのでプラス側に移動 flipTransform = flipTransform.concatenating(CGAffineTransform(translationX: 1, y: 1)) } // 3) 入力画像上でのスクリーンの向き・位置に移動 let viewPortSize = CGSize(width: fullWidthScale, height: fullWidthScale * aspectRatio) let displayTransform = self.displayTransform(for: orientation, viewportSize: viewPortSize) // 4) 0.0〜1.0 の座標系からスクリーンの座標系に変換 let toViewPortTransform = CGAffineTransform(scaleX: viewPortSize.width, y: viewPortSize.height) // 5) 1〜4までの変換を行い、変換後の画像を指定サイズでクリップ let transformedImage = image .transformed(by: normalizeTransform .concatenating(flipTransform) .concatenating(displayTransform) .concatenating(toViewPortTransform)) .cropped(to: CGRect(x: 0, y: CGFloat(Int(viewPortSize.height / 2.0 - fullWidthScale / 2.0)), width: fullWidthScale, height: fullWidthScale)) return transformedImage } func cropPortraitCenterSquareDepth(aspectRatio: CGFloat) -> ([Float32], Int) { guard let pixelBuffer = self.sceneDepth?.depthMap else { return ([], 0) } return cropPortraitCenterSquareMap(pixelBuffer, aspectRatio) } func cropPortraitCenterSquareDepthConfidence(aspectRatio: CGFloat) -> ([UInt8], Int) { guard let pixelBuffer = self.sceneDepth?.confidenceMap else { return ([], 0) } return cropPortraitCenterSquareMap(pixelBuffer, aspectRatio) } private func cropPortraitCenterSquareMap<T>(_ pixelBuffer: CVPixelBuffer, _ aspectRatio: CGFloat) -> ([T], Int) { let viewPortSize = CGSize(width: 1.0, height: aspectRatio) var displayTransform = self.displayTransform(for: .portrait, viewportSize: viewPortSize) // ポートレートの場合、X軸Y軸共に反転 var flipTransform = CGAffineTransform(scaleX: -1, y: -1) // X軸Y軸共にマイナス側に移動してしまうのでプラス側に移動 flipTransform = flipTransform.concatenating(CGAffineTransform(translationX: 1, y: 1)) displayTransform = displayTransform.concatenating(flipTransform) let sideCutoff = Int((1.0 - (1.0 / displayTransform.c)) / 2.0 * CGFloat(pixelBuffer.height)) return pixelBuffer.cropPortraitCenterData(sideCutoff: sideCutoff) } } extension SCNScene { static func makeFloorNode(width: CGFloat, height: CGFloat, length: CGFloat) -> SCNNode { let geometry = SCNBox(width: width, height: height, length: length, chamferRadius: 0.0) let material = SCNMaterial() material.lightingModel = .shadowOnly geometry.materials = [material] let node = SCNNode(geometry: geometry) node.castsShadow = false node.physicsBody = SCNPhysicsBody.static() return node } }
- 投稿日:2020-12-27T14:36:25+09:00
[Swift] UIImageViewの簡単な実装
はじめに
UIImageViewの実装方法について書いていきます。
写真などを画面に表示するだけでなんかすごく見える気がします。
今後使用する頻度も多いと思うので、まとめてみます。
使い方
UIImageViewを配置して、Outletとして接続します。
名前は好きなように付けてください(分かりやすく)。
赤枠を選択して、青枠の中に写真やイラストをドラック&ドロップします。
こんな感じで入りました。
写真のNameを分かりやすいように変更します。
あとでコードで呼び出す時もこのNameで指定します。
今回はseaにしました。おそらく川でしたが笑
コード
UIImage(named:) で先程設定した名前を入れる事で、画像が表示できます。
class ViewController: UIViewController { @IBOutlet var imageView: UIImageView! override func viewDidLoad() { super.viewDidLoad() imageView.image = UIImage(named: "sea") } }実行結果
- 投稿日:2020-12-27T11:59:42+09:00
[Swift] Unwind segue の使い方
はじめに
アプリ作成に欠かせない画面遷移関係でUnwind segueを使ったので、自分なりにまとめてみようと思います。
初めてこの名前を聞いた時かなり難しそうに思いましたが、コードはかなりシンプルでした。使い所
- 2つ以上前の画面に戻りたい時
- 画面遷移時に何らかの処理を行いたい時
実装してみた
何個か先の画面から戻ってくるものを作ってみる
下の写真のようにviewを用意し、緑の画面から青の画面に戻ってくるようにコードを書いていきます。
青い画面のViewControllerのコード
Unwind segue を使用するためには、戻って来たい画面に以下のコードを書きます。
@IBAction func bluesegue(segue: UIStoryboardSegue) {}
この関数名は各自設定してみてください。
実はコードはこれだけになります。class ViewController: UIViewController { @IBAction func bluesegue(segue: UIStoryboardSegue) { } }storyboard上でUnwind segueを設定
緑の画面のThirdViewControllerのボタンから青の画面に戻るように設定します。
ボタンからcontrolを押しながら、画像の赤枠のマークのExitにドラック&ドロップします。
先程設定した関数の名前が表示されるので、それをクリックします。これで紐付け完了です。
赤く囲ったようにUnwind segueが追加されています。
動かしてみた
戻る前に値を渡してから遷移する場合
上で作成したものにtextFieldを追加して、画面遷移時に青い画面のlabelに値を渡してみます。
緑の画面のコード
ボタンを押した時に、textFieldのtextが変数contentに代入され、Unwindで画面遷移して値を渡します。
今回は値を入れる処理をしてからの画面遷移になりますので、ボタンからの接続ではありません。
以下の画像の赤枠ThirdViewControllerからExitに接続します。
そしてUnwind segueにIdentifierを設定します。
そうする事で、Identifierを指定したタイミングでのみUnwind segueで戻る事ができます。
コード
ボタンが押されたら代入され、
performSegue
で先程設定したIdentifierの画面遷移を行います。class ThirdViewController: UIViewController { @IBOutlet var textField: UITextField! var content = "" @IBAction func segueButton(_ sender: Any) { content = textField.text! performSegue(withIdentifier: "segue", sender: sender) }青い画面のコード
Unwid segueの中にコードを書いていきます。
内容は以下の通りです。
- 緑の画面ThirdViewControllerにアクセスできるように設定
- 緑の画面ThirdViewControllerのcontentを青い画面のlabelに入れる
コード
Unwid segueでbluesegueに戻ってきます。
その中にThirdViewControllerにアクセスするための定数を用意します。
ThirdViewControllerから戻ってくるので、ThirdViewControllerはsourceになるそうです。
segue.sourceはこの段階では UIViewController型になりますので、ThirdViewController型に変換してあげる必要があります。
as? ThirdViewController で変換しましょう。class ViewController: UIViewController { @IBOutlet var label: UILabel! @IBAction func bluesegue(segue: UIStoryboardSegue) { let thirdView = segue.source as? ThirdViewController //これでThirdViewControllerにアクセスできます。 label.text = thirdView?.content //contentをlabelのtextに入れます。 } }動かしてみた
- 投稿日:2020-12-27T10:40:55+09:00
unrecognized selector sent to instanceエラーはこんな時にも出る。
はじめに
ボタンを作成し、押したらある処理をするといったコードを書いていました。buildはうまくいっているのにボタンを押したとたんその処理をせずに
unrecognized selector sent to instance
のエラーが出ました。これを解決するのに苦労したのでメモを残します。
この方とは違う原因でした。
https://qiita.com/yoshiki-0428/items/80ea88f65f5a62ffcc11原因
画面右の黄色い三角(危険マーク)のところをご覧ください。一つのボタンに2つ@IBActionが紐付けられています。これが原因です。
対処法
この紐付けの解除に困りました。理由は、コードを削除していても、黄色いマークの方の紐付けを消すまでしないと解除されません。
(補足)紐付けの確認方法はこの記事を参考にしました
https://teratail.com/questions/46087まとめ
初見殺しというのと、swiftの記事が少ないので書きました。「こんなのでキータ書くな!」と言われるのを恐れながら書いたので、暖かい目で。。。
- 投稿日:2020-12-27T01:51:02+09:00
【Dart】Mapのvalueを使ってソートする
Mapのvalueでソートしたい事があったので調査しました。
SplayTreeMap class
SplayTreeMapのfromにソートしたいmapとcompareを渡せばソートできるみたいです。下記のようなオブジェクトを作成しました。属性idでソートする予定。
Objectclass Employee{ int id; String name; Employee(this.id,this.name); }最初の並び順は下記の様な感じです。
unSortMap<String,Employee> map = Map<String,Employee>(); map['hoge'] = new Employee(1, "sato"); map['huga'] = new Employee(3, "tanaka"); map['piyo'] = new Employee(2, "yamashita"); map.forEach((key, value) { print("key:"+key+" | id:"+value.id.toString()+" | name:"+value.name); });出力
key:hoge | id:1 | name:sato key:huga | id:3 | name:tanaka key:piyo | id:2 | name:yamashitaソート後のMapを作成し再度出力すると…
sortedfinal sortedMap = SplayTreeMap.from( map, (a, b) => map[a].id.compareTo(map[b].id)); sortedMap.forEach((key, value) { print("key:"+key+" | id:"+value.id.toString()+" | name:"+value.name); });出力
flutter: key:hoge | id:1 | name:sato flutter: key:piyo | id:2 | name:yamashita flutter: key:huga | id:3 | name:tanakaオホ
できましたね。