🐪
ARCoreでオブジェクトを動的に生成する
はじめに
ARCoreで動的にオブジェクトを生成する必要があったのでとりあえず解決することができたのでまとめておきます。
実装
通常のオブジェクト生成
ARCoreのオブジェクト描画部分ではOpenGLを使用しています。そのためほとんどOpenGLとなります。
ARCoreのサンプルコードではこの部分でARポーンくんをオブジェクトとして生成しています。
ArRenderer.kt
override fun onSurfaceCreated(render: SampleRender) {
// Prepare the rendering objects.
// This involves reading shaders and 3D model files, so may throw an IOException.
try {
planeRenderer = PlaneRenderer(render)
backgroundRenderer = BackgroundRenderer(render)
virtualSceneFramebuffer = Framebuffer(render, /*width=*/ 1, /*height=*/ 1)
cubemapFilter =
SpecularCubemapFilter(render, CUBEMAP_RESOLUTION, CUBEMAP_NUMBER_OF_IMPORTANCE_SAMPLES)
// Load environmental lighting values lookup table
dfgTexture =
Texture(
render,
Texture.Target.TEXTURE_2D,
Texture.WrapMode.CLAMP_TO_EDGE,
/*useMipmaps=*/ false
)
// The dfg.raw file is a raw half-float texture with two channels.
val dfgResolution = 64
val dfgChannels = 2
val halfFloatSize = 2
val buffer: ByteBuffer =
ByteBuffer.allocateDirect(dfgResolution * dfgResolution * dfgChannels * halfFloatSize)
activity.assets.open("models/dfg.raw").use { it.read(buffer.array()) }
// SampleRender abstraction leaks here.
GLES30.glBindTexture(GLES30.GL_TEXTURE_2D, dfgTexture.textureId)
GLError.maybeThrowGLException("Failed to bind DFG texture", "glBindTexture")
GLES30.glTexImage2D(
GLES30.GL_TEXTURE_2D,
/*level=*/ 0,
GLES30.GL_RG16F,
/*width=*/ dfgResolution,
/*height=*/ dfgResolution,
/*border=*/ 0,
GLES30.GL_RG,
GLES30.GL_HALF_FLOAT,
buffer
)
GLError.maybeThrowGLException("Failed to populate DFG texture", "glTexImage2D")
// Point cloud
pointCloudShader =
Shader.createFromAssets(
render,
"shaders/point_cloud.vert",
"shaders/point_cloud.frag",
/*defines=*/ null
)
.setVec4("u_Color", floatArrayOf(31.0f / 255.0f, 188.0f / 255.0f, 210.0f / 255.0f, 1.0f))
.setFloat("u_PointSize", 5.0f)
// four entries per vertex: X, Y, Z, confidence
pointCloudVertexBuffer =
VertexBuffer(render, /*numberOfEntriesPerVertex=*/ 4, /*entries=*/ null)
val pointCloudVertexBuffers = arrayOf(pointCloudVertexBuffer)
pointCloudMesh =
Mesh(render, Mesh.PrimitiveMode.POINTS, /*indexBuffer=*/ null, pointCloudVertexBuffers)
// Virtual object to render (ARCore pawn)
virtualObjectAlbedoTexture =
Texture.createFromAsset(
render,
"models/pawn_albedo.png",
Texture.WrapMode.CLAMP_TO_EDGE,
Texture.ColorFormat.SRGB
)
virtualObjectAlbedoInstantPlacementTexture =
Texture.createFromAsset(
render,
"models/pawn_albedo_instant_placement.png",
Texture.WrapMode.CLAMP_TO_EDGE,
Texture.ColorFormat.SRGB
)
val virtualObjectPbrTexture =
Texture.createFromAsset(
render,
"models/pawn_roughness_metallic_ao.png",
Texture.WrapMode.CLAMP_TO_EDGE,
Texture.ColorFormat.LINEAR
)
virtualObjectMesh = Mesh.createFromAsset(render, "models/pawn.obj")
virtualObjectShader =
Shader.createFromAssets(
render,
"shaders/environmental_hdr.vert",
"shaders/environmental_hdr.frag",
mapOf("NUMBER_OF_MIPMAP_LEVELS" to cubemapFilter.numberOfMipmapLevels.toString())
)
.setTexture("u_AlbedoTexture", virtualObjectAlbedoTexture)
.setTexture("u_RoughnessMetallicAmbientOcclusionTexture", virtualObjectPbrTexture)
.setTexture("u_Cubemap", cubemapFilter.filteredCubemapTexture)
.setTexture("u_DfgTexture", dfgTexture)
} catch (e: IOException) {
Log.e(TAG, "Failed to read a required asset file", e)
showError("Failed to read a required asset file: $e")
}
}
onSurfaceCreated
はGLSurfaceView
が描画されたタイミングで呼び出されるメソッドです。
大体ここでオブジェクトが生成されています。
しかし今回作成しようとしていたアプリではオブジェクトが動的に生成される必要があるため、最初に一度しか呼び出されないこのメソッド内で実装することができませんでした。
動的にオブジェクトを作る
オブジェクトを生成するところを関数として切り出します。
createObject
fun createObject(){
// 仮想オブジェクトのアルベドマップテクスチャ
virtualObjectAlbedoTexture =
Texture.createFromAsset(
render,
"models/pawn_albedo.png",
Texture.WrapMode.CLAMP_TO_EDGE,
Texture.ColorFormat.SRGB
)
// インスタント配置用の仮想オブジェクトのアルベドマップテクスチャ
virtualObjectAlbedoInstantPlacementTexture =
Texture.createFromAsset(
render,
"models/pawn_albedo_instant_placement.png",
Texture.WrapMode.CLAMP_TO_EDGE,
Texture.ColorFormat.SRGB
)
// 仮想オブジェクトのPBRテクスチャ
val virtualObjectPbrTexture =
Texture.createFromAsset(
render,
"models/pawn_roughness_metallic_ao.png",
Texture.WrapMode.CLAMP_TO_EDGE,
Texture.ColorFormat.LINEAR
)
// 仮想オブジェクトのメッシュ
virtualObjectMesh = Mesh.createFromAsset(render, "models/pawn.obj")
// 仮想オブジェクトのシェーダー
virtualObjectShader =
Shader.createFromAssets(
render,
"shaders/environmental_hdr.vert",
"shaders/environmental_hdr.frag",
mapOf("NUMBER_OF_MIPMAP_LEVELS" to cubemapFilter.numberOfMipmapLevels.toString())
)
.setTexture("u_AlbedoTexture", virtualObjectAlbedoTexture)
.setTexture("u_RoughnessMetallicAmbientOcclusionTexture", virtualObjectPbrTexture)
.setTexture("u_Cubemap", cubemapFilter.filteredCubemapTexture)
.setTexture("u_DfgTexture", dfgTexture)
}
この関数をonDrawFrame
から呼び出します。
override fun onDrawFrame(render: SampleRender) {
val session = session ?: return
if (!hasSetTextureNames) {
session.setCameraTextureNames(intArrayOf(backgroundRenderer.cameraColorTexture.textureId))
hasSetTextureNames = true
}
//ここら辺で呼び出します
createObject()
displayRotationHelper.updateSessionIfNeeded(session)
val frame =
try {
session.update()
} catch (e: CameraNotAvailableException) {
Log.e(TAG, "Camera not available during onDrawFrame", e)
showError("Camera not available. Try restarting the app.")
return
}
val camera = frame.camera
try {
backgroundRenderer.setUseDepthVisualization(
render,
activity.depthSettings.depthColorVisualizationEnabled()
)
backgroundRenderer.setUseOcclusion(render, activity.depthSettings.useDepthForOcclusion())
} catch (e: IOException) {
Log.e(TAG, "Failed to read a required asset file", e)
showError("Failed to read a required asset file: $e")
return
}
backgroundRenderer.updateDisplayGeometry(frame)
val shouldGetDepthImage =
activity.depthSettings.useDepthForOcclusion() ||
activity.depthSettings.depthColorVisualizationEnabled()
if (camera.trackingState == TrackingState.TRACKING && shouldGetDepthImage) {
try {
val depthImage = frame.acquireDepthImage16Bits()
backgroundRenderer.updateCameraDepthTexture(depthImage)
depthImage.close()
} catch (e: NotYetAvailableException) {
}
}
handleTap(frame, camera)
~以下略~
}
onDrawFrame
は毎フレーム呼び出されます。
そのため、このままでは毎フレームごとにオブジェクトを再生成してしまうとんでも無い状態です。
そのため次のように修正します。
override fun onDrawFrame(render: SampleRender) {
val session = session ?: return
if (!hasSetTextureNames) {
session.setCameraTextureNames(intArrayOf(backgroundRenderer.cameraColorTexture.textureId))
hasSetTextureNames = true
}
//hogeはBoolean型の変数ですグローバル変数にして他の部分から変更できるようにすることで
//オブジェクトを生成するタイミングを制御しています。
if(hoge){
createObject()
}
displayRotationHelper.updateSessionIfNeeded(session)
val frame =
try {
session.update()
} catch (e: CameraNotAvailableException) {
Log.e(TAG, "Camera not available during onDrawFrame", e)
showError("Camera not available. Try restarting the app.")
return
}
val camera = frame.camera
try {
backgroundRenderer.setUseDepthVisualization(
render,
activity.depthSettings.depthColorVisualizationEnabled()
)
backgroundRenderer.setUseOcclusion(render, activity.depthSettings.useDepthForOcclusion())
} catch (e: IOException) {
Log.e(TAG, "Failed to read a required asset file", e)
showError("Failed to read a required asset file: $e")
return
}
backgroundRenderer.updateDisplayGeometry(frame)
val shouldGetDepthImage =
activity.depthSettings.useDepthForOcclusion() ||
activity.depthSettings.depthColorVisualizationEnabled()
if (camera.trackingState == TrackingState.TRACKING && shouldGetDepthImage) {
try {
val depthImage = frame.acquireDepthImage16Bits()
backgroundRenderer.updateCameraDepthTexture(depthImage)
depthImage.close()
} catch (e: NotYetAvailableException) {
}
}
handleTap(frame, camera)
~以下略~
}
if文等で実行されるタイミングを制御することで好きなタイミングでオブジェクトの生成を行なっています。
まとめ
我流ですがオブジェクトを作成するタイミングを任意に行う方法についてまとめてみました。
筆者が作成したアプリでは、好きな画像がダウンロードされたタイミングをトリガーとしてイメージビットマップからメッシュの生成を行なっている処理を実装しているためこの考え方で応用が効くと思います。
Discussion