さっそくシェーダーを書いていきましょう。
コードはこちらにあります。
文章内にコード片を記載していますが完全なコードではないのでリポジトリを確認してください。
まず、2章と同じセットアップをしてください[1]。
rust-gpuでレイトレーシング拡張を有効にするためにbuild.rs
を変更します。
use std::error::Error;
use spirv_builder::{Capability, MetadataPrintout, SpirvBuilder};
fn main() -> Result<(), Box<dyn Error>> {
SpirvBuilder::new("./shader", "spirv-unknown-vulkan1.2")
.capability(Capability::RayTracingKHR)
.extension("SPV_KHR_ray_tracing")
.print_metadata(MetadataPrintout::Full)
.build()?;
Ok(())
}
疑似乱数を実装する
疑似乱数はレイトレーシングのいたるところで使用されますがSPIR-Vにはrand(3)のようなものはありませんし、randクレートもコンパイルできません。
なので自分で実装していきます。
まず、疑似乱数のシードを得ようと思います。
今回は、ピクセルの座標とホストでつくった乱数(Push Constantsで渡す)をxorしてシードとします。(VK_KHR_shader_clock(3)を使うのもありかもしれません)
pub struct PushConstants {
seed: u32,
}
// 前章で書いたようにレイトレーシングのエントリポイントはRay Generation Shader
#[spirv(ray_generation)]
pub fn main_ray_generation(
// 並列実行された呼び出しのID。画像のサイズだけ並列実行することにし、この値を出力のピクセルの座標としている
#[spirv(launch_id)] launch_id: UVec3,
// 全体のサイズ
#[spirv(launch_size)] launch_size: UVec3,
// Push Constants
#[spirv(push_constant)] constants: &PushConstants,
) {
let rand_seed = (launch_id.y * launch_size.x + launch_id.x) ^ constants.seed;
}
疑似乱数のアルゴリズムはいろいろありますが、今回はPCGファミリの中からpcg32si
を使うことにしました、GPUは基本的に32bitアーキテクチャのようなので内部状態に32bitしか使わないものを選びました。周期が32bitと短めですが速さを期待します。
pub struct PCG32si {
state: u32,
}
impl PCG32si {
const PCG_DEFAULT_MULTIPLIER_32: u32 = 747796405;
const PCG_DEFAULT_INCREMENT_32: u32 = 2891336453;
fn pcg_oneseq_32_step_r(&mut self) {
self.state = self
.state
.wrapping_mul(Self::PCG_DEFAULT_MULTIPLIER_32)
.wrapping_add(Self::PCG_DEFAULT_INCREMENT_32);
}
fn pcg_output_rxs_m_xs_32_32(state: u32) -> u32 {
let word = ((state >> ((state >> 28).wrapping_add(4))) ^ state).wrapping_mul(277803737);
(word >> 22) ^ word
}
pub fn new(seed: u32) -> Self {
let mut rng = Self { state: seed };
rng.pcg_oneseq_32_step_r();
rng.state = rng.state.wrapping_add(seed);
rng.pcg_oneseq_32_step_r();
rng
}
pub fn next_u32(&mut self) -> u32 {
let old_state = self.state;
self.pcg_oneseq_32_step_r();
Self::pcg_output_rxs_m_xs_32_32(old_state)
}
// 0.0..1.0
pub fn next_f32(&mut self) -> f32 {
// stdは使えないがcoreは使えるよ
let float_size = core::mem::size_of::<f32>() as u32 * 8;
let precision = 23 + 1;
let scale = 1.0 / ((1 << precision) as f32);
let value = self.next_u32();
let value = value >> (float_size - precision);
scale * value as f32
}
pub fn next_f32_range(&mut self, min: f32, max: f32) -> f32 {
min + (max - min) * self.next_f32()
}
}
pub type DefaultRng = PCG32si;
実装はPCGのC実装からそのまま持ってきました。
next_f32
はrandクレートから持ってきました。
また簡単のために、どうせこれ以上の乱数生成器を作る予定もないのでトレイトで抽象化をせず、DefaultRng
として公開しています。
カメラを実装する
ピクセル座標から、どの位置からどの方向にレイを飛ばすかを決定します。
Ray Tracing in One Weekendのカメラをそのまま持ってきます。
まず、Ray
型を定義します。今回はモーションブラーを実装しないので位置と方向だけです。
#[derive(Clone, Copy, Default)]
pub struct Ray {
pub origin: Vec3A,
pub direction: Vec3A,
}
random_in_unit_disk
などの数学系の関数はshader/src/math.rs
に実装することにします。
pub fn random_in_unit_disk(rng: &mut DefaultRng) -> Vec3A {
loop {
let p = vec3a(
rng.next_f32_range(-1.0, 1.0),
rng.next_f32_range(-1.0, 1.0),
0.0,
);
if p.length_squared() < 1.0 {
break p;
}
}
}
#[derive(Copy, Clone)]
pub struct Camera {
origin: Vec3A,
lower_left_corner: Vec3A,
horizontal: Vec3A,
vertical: Vec3A,
u: Vec3A,
v: Vec3A,
// w: Vec3A,
lens_radius: f32,
}
impl Camera {
#[allow(clippy::too_many_arguments)]
pub fn new(
look_from: Vec3A,
look_at: Vec3A,
vup: Vec3A,
vfov: f32,
aspect_ratio: f32,
aperture: f32,
focus_dist: f32,
) -> Self {
let theta = vfov;
let h = (theta / 2.0).tan();
let viewport_height = 2.0 * h;
let viewport_width = aspect_ratio * viewport_height;
let w = (look_from - look_at).normalize();
let u = vup.cross(w).normalize();
let v = w.cross(u);
let origin = look_from;
let horizontal = focus_dist * viewport_width * u;
let vertical = focus_dist * viewport_height * v;
let lower_left_corner = origin - horizontal / 2.0 - vertical / 2.0 - focus_dist * w;
Self {
origin,
lower_left_corner,
horizontal,
vertical,
u,
v,
// w,
lens_radius: aperture / 2.0,
}
}
pub fn get_ray(&self, s: f32, t: f32, rng: &mut DefaultRng) -> Ray {
let rd = self.lens_radius * random_in_unit_disk(rng);
let offset = self.u * rd.x + self.v * rd.y;
Ray {
origin: self.origin + offset,
direction: (self.lower_left_corner + s * self.horizontal + t * self.vertical
- self.origin
- offset),
}
}
}
先ほど実装した乱数生成器を使ってデフォーカス・ブラーを実装しています。
RayPayload型を作成
Closest-Hit ShaderとMiss Shaderの返り値の型をここで定義します。レイを飛ばしたとき、{Closest-Hit, Miss} Shaderのどちらからも値が返ってくる可能性があるため、両方の返り値はもちろん同じ型でなければなりません。
その型をRayPayload
型とします。
RayPayload
型にどのような情報が欲しいかというと...
- レイは当たったのか? (Closest-HitかMissか?)
- Missだった場合
- その色 (もう二度と反射したりしないのでこれだけでよい)
- Closest-Hitだった場合
- 衝突位置
- 法線の方向
- マテリアルのindex (マテリアルのリストをStorage Bufferで渡してindexで参照するようにすることにします)
- レイは表(球の外側)からあたったのか?裏からあたったのか?
の情報があれば十分です。
素直に考えれば上記はenum
で表現できますが、ここで注意点があります。
Vulkanのメモリモデルではポインタは基本的にロジカルポインタです。つまり、ポインタに数値を足したり引いたりすることはできないしキャストすることもできません。rust-gpuにはポインタは存在せず、参照のみ存在すると考えると理解しやすいでしょう。
普通のRustコンパイラはenum
を、各バリアントに対してそれにマッチしてデータが欲しいときにデータ部分に対してキャストをします(上記のようにこれはできません!)。つまり現状、rust-gpuではOption<T>
も含めenum
を使うことは現状できません。
#78, #234
しょうがないのでstruct
で表現し、内部の値によって使うメンバを変えることにします。
また、Bool型はシェーダーの入力としては使えないのでu32
で表現します(true
=> 1, false
=> 0)。
#[derive(Clone, Default)]
pub struct RayPayload {
// レイは当たったのか?
pub is_miss: u32,
// Missの場合その色。Closest-Hitの場合その位置
pub position: Vec3A,
// 法線
pub normal: Vec3A,
// マテリアルの番号
pub material: u32,
// 表からレイが当たったのかどうか
pub front_face: u32,
}
Miss Shaderの作成
RayPayload
型が定義できたので早速Miss Shaderを書いていきます。といってもRay Tracing in One Weekendと同じように空を描くだけです。
impl RayPayload {
pub fn new_miss(color: Vec3A) -> Self {
Self {
is_miss: 1,
position: color,
..Default::default()
}
}
}
#[spirv(miss)]
pub fn main_miss(
// レイの方向
#[spirv(world_ray_direction)] world_ray_direction: Vec3A,
// RayPayload
#[spirv(incoming_ray_payload)] out: &mut RayPayload,
) {
let unit_direction = world_ray_direction.normalize();
let t = 0.5 * (unit_direction.y + 1.0);
let color = vec3a(1.0, 1.0, 1.0).lerp(vec3a(0.5, 0.7, 1.0), t);
*out = RayPayload::new_miss(color);
}
前述したようにposition
に空の色を入れています。
Intersection, Closest-Hit Shaderの作成
目的とするシーンには球しか存在しないので、球のためのIntersection ShaderとClosest-Hit Shaderをつくるだけです。
BLASに中心が原点で各長さが2のAABB(半径1の球)を用意して、TLASから変換行列(拡大含む)でそのBLASを参照していく想定です。
レイを移動させると実質、対象の物体を動かしたことになることを思い出してください。やっていない方はRay Tracing: The Next WeekのInstancesをやるとよいでしょう。
impl RayPayload {
pub fn new_hit(position: Vec3A, outward_normal: Vec3A, ray_direction: Vec3A, material: u32) -> Self {
let front_face = ray_direction.dot(outward_normal) < 0.0;
let normal = if front_face {
outward_normal
} else {
-outward_normal
};
Self {
is_miss: 0,
position,
normal,
material,
front_face: if front_face { 1 } else { 0 },
}
}
}
#[spirv(intersection)]
pub fn sphere_intersection(
// TLASで登録した変換行列の逆で変換した(つまりオブジェクトの空間の)レイの原点
#[spirv(object_ray_origin)] ray_origin: Vec3A,
// TLASで登録した変換行列の逆で変換したレイの方向
#[spirv(object_ray_direction)] ray_direction: Vec3A,
// レイの開始時間
#[spirv(ray_tmin)] t_min: f32,
// レイの終了時間
#[spirv(ray_tmax)] t_max: f32,
// ここで値を書くとClosest-Hitから読める
// ここでは使わない
// #[spirv(hit_attribute)] ...: &mut ...,
) {
// Ray Tracing in One Weekendの球の当たり判定そのまま
// レイは変換済みなので常に原点、半径1の球に対する判定をすればよい。
let oc = ray_origin;
let a = ray_direction.length_squared();
let half_b = oc.dot(ray_direction);
let c = oc.length_squared() - 1.0;
let discriminant = half_b * half_b - a * c;
if discriminant < 0.0 {
return;
}
let sqrtd = discriminant.sqrt();
let root0 = (-half_b - sqrtd) / a;
let root1 = (-half_b + sqrtd) / a;
if root0 >= t_min && root0 <= t_max {
// 小さい方の解が当たっている
unsafe {
report_intersection(root0, 0);
}
}
if root1 >= t_min && root1 <= t_max {
// 大きい方の解が当たっている
unsafe {
report_intersection(root1, 0);
}
}
}
// glamの行列型はSPIR-Vの行列型ではないここで行列型を作る
// 具体的には#[spirv(matrix)]した型はSPIR-Vの`OpTypeMatrix`の型となる
#[derive(Clone, Copy)]
#[spirv(matrix)]
#[repr(C)]
pub struct Affine3 {
pub x: Vec3A,
pub y: Vec3A,
pub z: Vec3A,
pub w: Vec3A,
}
#[spirv(closest_hit)]
pub fn sphere_closest_hit(
// レイの衝突時刻
#[spirv(ray_tmax)] t: f32,
// TLASで登録した変換行列
#[spirv(object_to_world)] object_to_world: Affine3,
// レイの位置
#[spirv(world_ray_origin)] world_ray_origin: Vec3A,
// レイの方向
#[spirv(world_ray_direction)] world_ray_direction: Vec3A,
// RayPayload。これがRay Generationに返る
#[spirv(incoming_ray_payload)] out: &mut RayPayload,
// TLASで登録した番号。これをマテリアルのindexとする
#[spirv(instance_custom_index)] instance_custom_index: u32,
) {
// レイの衝突位置、法線をここで計算する。Intersectionで行わないことで計算を遅延していることに注意、
let hit_pos = world_ray_origin + t * world_ray_direction;
// object_to_world.wに変換行列の平行移動の部分が入っている。
// 球のスケールがすべての軸で等倍ではない場合この計算は間違っているが、今のところそのような球を扱う予定はないためこのままにしておく。
let normal = (hit_pos - object_to_world.w).normalize();
*out = RayPayload::new_hit(hit_pos, normal, world_ray_direction, instance_custom_index);
}
マテリアル
ここでマテリアルの実装をします。
マテリアルはレイとRayPayload
を受け取り、色と反射したレイを返すか何も返しません。
Ray Tracing in One Weekendででてきた三つのマテリアルを実装します。
- Lambertian
- 色(albedo)の情報があればよい
- Metal
- 色(albedo)とFuzzy Reflectionの係数があればよい
- Dielectric
- reflectionかrefractionの確率を決める係数一つあればよい
前述のようにenum
は使えないので自力でenum
のようなstruct
をつくるとして、どのマテリアルかを決める値とf32
が4つあればよいということになります。
#[derive(Clone, Copy, Default)]
#[repr(transparent)]
pub struct EnumMaterialData {
v0: Vec4,
}
#[derive(Clone, Copy, Default)]
pub struct EnumMaterial {
t: u32,
data: EnumMaterialData,
}
絶対にポインタのキャストはやってはいけないので、各マテリアルは&'a EnumMaterialData
をメンバに持つstruct
として実装していきます。
まず、マテリアルのtrait
を作ります。
#[derive(Clone, Default)]
pub struct Scatter {
pub color: Vec3A,
pub ray: Ray,
}
#[repr(transparent)]
struct Lambertian<'a> {
data: &'a EnumMaterialData,
}
#[repr(transparent)]
struct Metal<'a> {
data: &'a EnumMaterialData,
}
#[repr(transparent)]
struct Dielectric<'a> {
data: &'a EnumMaterialData,
}
pub trait Material {
fn scatter(
&self,
ray: &Ray,
ray_payload: &RayPayload,
rng: &mut DefaultRng,
scatter: &mut Scatter,
) -> bool;
}
本当はOption<Scatter>
を返したいのですが、Option<T>
は使えないので&mut Scatter
を編集してもらって返り値のbool
でそのScatter
が有効かどうか返してもらいます。
impl EnumMaterial {
pub fn new_lambertian(albedo: Vec3A) -> Self {
Self {
t: 0,
data: EnumMaterialData {
v0: vec4(albedo.x, albedo.y, albedo.z, 0.0),
},
}
}
pub fn new_metal(albedo: Vec3A, fuzz: f32) -> Self {
Self {
t: 1,
data: EnumMaterialData {
v0: vec4(albedo.x, albedo.y, albedo.z, fuzz),
},
}
}
pub fn new_dielectric(ir: f32) -> Self {
Self {
t: 2,
data: EnumMaterialData {
v0: vec4(ir, 0.0, 0.0, 0.0),
},
}
}
}
impl Material for EnumMaterial {
fn scatter(
&self,
ray: &Ray,
ray_payload: &RayPayload,
rng: &mut DefaultRng,
scatter: &mut Scatter,
) -> bool {
match self.t {
0 => Lambertian { data: &self.data }.scatter(ray, ray_payload, rng, scatter),
1 => Metal { data: &self.data }.scatter(ray, ray_payload, rng, scatter),
_ => Dielectric { data: &self.data }.scatter(ray, ray_payload, rng, scatter),
}
}
}
各マテリアルの実装はソースを見てください。Ray Tracing in One Weekendそのままです。
Ray Generation
すべてのパーツがそろったのでRay Generation Shaderを完成させます。
#[spirv(ray_generation)]
pub fn main_ray_generation(
#[spirv(launch_id)] launch_id: UVec3A,
#[spirv(launch_size)] launch_size: UVec3A,
#[spirv(push_constant)] constants: &PushConstants,
// TLAS
#[spirv(descriptor_set = 0, binding = 0)] top_level_as: &AccelerationStructure,
// 出力画像
#[spirv(descriptor_set = 0, binding = 1)] image: &Image!(2D, format=rgba32f, sampled=false),
// マテリアルのリスト
#[spirv(storage_buffer, descriptor_set = 0, binding = 2)] materials: &[EnumMaterial],
// RayPayload
// APIの都合上ここで宣言しておく
#[spirv(ray_payload)] payload: &mut RayPayload,
) {
let rand_seed = (launch_id.y * launch_size.x + launch_id.x) ^ constants.seed;
let mut rng = DefaultRng::new(rand_seed);
// カメラの場所などは簡単のために固定値
let camera = Camera::new(
vec3a(13.0, 2.0, 3.0),
vec3a(0.0, 0.0, 0.0),
vec3a(0.0, 1.0, 0.0),
20.0 / 180.0 * core::f32::consts::PI,
launch_size.x as f32 / launch_size.y as f32,
0.1,
10.0,
);
let u = (launch_id.x as f32 + rng.next_f32()) / (launch_size.x - 1) as f32;
let v = (launch_id.y as f32 + rng.next_f32()) / (launch_size.y - 1) as f32;
// あらかじめTLASで設定した値とcull_maskとの論理積が0のインスタンスは無視される。
// 今回はこの機能は使わない。
let cull_mask = 0xff;
let tmin = 0.001;
let tmax = 100000.0;
// レイの色
let mut color = vec3a(1.0, 1.0, 1.0);
// レイの位置と方向
let mut ray = camera.get_ray(u, v, &mut rng);
// レイトレーシングはよく再帰的なアルゴリズムだといわれるが、SPIR-Vで再帰はできない。
for _ in 0..50 /* 最大の反射回数 */ {
*payload = RayPayload::default();
unsafe {
top_level_as.trace_ray(
// すべてのレイの衝突はOPAQUEだと指定。つまりAny-Hit Shaderは実行されない
RayFlags::OPAQUE,
cull_mask,
// sbt_offset, sbt_stride, miss_indexは全部0
0,
0,
0,
// ここで引数が交互にVec3A, f32, Vec3A, f32となっているのはアラインメントのためだろう
ray.origin,
tmin,
ray.direction,
tmax,
payload,
);
}
if payload.is_miss != 0 {
// レイが何にも当たらなかった
// 終わり
color *= payload.position;
break;
} else {
let mut scatter = Scatter::default();
if unsafe { materials.index_unchecked(payload.material as usize) }.scatter(
&ray,
payload,
&mut rng,
&mut scatter,
) {
color *= scatter.color;
ray = scatter.ray;
} else {
break;
}
}
}
// 座標の上下が反対なので変換している
let pos = uvec2(launch_id.x, launch_size.y - 1 - launch_id.y);
let prev: Vec4 = image.read(pos);
unsafe {
// 画像に色を加算していく
// 最後に自分でイテレーション回数で割ることで平均値を得る
image.write(pos, prev + color.extend(1.0));
}
}
まとめ
レイトレーシングのシェーダーを書いてきました。次章でこのシェーダー群を実行していきます。
-
といってもこの文章に書かれたコードを自力でコピペするのはおすすめしません。大体把握出来たらリポジトリを見てください。 ↩︎