この記事は、キューブマップに関する記事の続きです。この記事では、ライティングに関する記事で説明されている概念も使用します。これらの記事をまだ読んでいない場合は、最初に読むことをお勧めします。
環境マップは、描画しているオブジェクトの環境を表します。屋外のシーンを描画している場合は、屋外を表します。ステージ上の人物を描画している場合は、会場を表します。宇宙のシーンを描画している場合は、星になります。キューブマップの6つの方向から空間内の点からの環境を示す6つの画像があれば、キューブマップで環境マップを実装できます。
これは、ロンドンのレドンホールマーケットのロビーからの環境マップです。






前の記事のコードに基づいて、生成したキャンバスの代わりにそれらの6つの画像を読み込みましょう。テクスチャへの画像のインポートに関する記事から、画像を読み込む関数と画像からテクスチャを作成する関数の2つがありました。
async function loadImageBitmap(url) {
const res = await fetch(url);
const blob = await res.blob();
return await createImageBitmap(blob, { colorSpaceConversion: 'none' });
}
async function createTextureFromImage(device, url, options) {
const imgBitmap = await loadImageBitmap(url);
return createTextureFromSource(device, imgBitmap, options);
}
複数の画像を読み込むためのものを追加しましょう。
+ async function createTextureFromImages(device, urls, options) {
+ const imgBitmaps = await Promise.all(url.map(loadImageBitmap));
+ return createTextureFromSource(device, imgBitmaps, options);
+ }
async function createTextureFromImage(device, url, options) {
- const imgBitmap = await loadImageBitmap(url);
- return createTextureFromSource(device, imgBitmap, options);
+ return createTextureFromImages(device, [url], options);
}
ついでに、既存の関数を新しい関数を使用するように変更しました。これで、新しい関数を使用して6つの画像を読み込むことができます。
- const texture = await createTextureFromSources(
- device, faceCanvases, {mips: true, flipY: false});
+ const texture = await createTextureFromImages(
+ device,
+ [
+ 'resources/images/leadenhall_market/pos-x.jpg',
+ 'resources/images/leadenhall_market/neg-x.jpg',
+ 'resources/images/leadenhall_market/pos-y.jpg',
+ 'resources/images/leadenhall_market/neg-y.jpg',
+ 'resources/images/leadenhall_market/pos-z.jpg',
+ 'resources/images/leadenhall_market/neg-z.jpg',
+ ],
+ {mips: true, flipY: false},
+ );
フラグメントシェーダーでは、描画する各フラグメントについて、目/カメラからオブジェクトの表面上のその位置までのベクトルが与えられた場合、その表面からどの方向に反射するかを知りたいです。その方向を使用して、キューブマップから色を取得できます。
反射の式は次のとおりです。
reflectionDir = eyeToSurfaceDir –
2 ∗ dot(surfaceNormal, eyeToSurfaceDir) ∗ surfaceNormal
私たちが見ることができるものについて考えると、それは真実です。ライティングの記事から、2つのベクトルのドット積は2つのベクトル間の角度のコサインを返すことを思い出してください。ベクトルを追加すると新しいベクトルが得られるので、平らな表面に垂直に直接見ている目の例を見てみましょう。
上記の式を視覚化しましょう。まず、正反対の方向を向いている2つのベクトルのドット積が-1であることを思い出してください。視覚的には
そのドット積をeyeToSurfaceDirとnormalで反射式に代入すると、次のようになります。
-2に-1を掛けると正の2になります。
したがって、ベクトルを接続して追加すると、反射ベクトルが得られます。
上記のように、2つの法線が与えられると、1つは目からの方向を完全に打ち消し、2つ目は反射を直接目の方に向けます。これを元の図に戻すと、まさに期待どおりになります。
表面を右に45度回転させましょう。
135度離れた2つのベクトルのドット積は-0.707です。
したがって、すべてを式に代入すると
再び2つの負の数を掛けると正になりますが、ベクトルは約30%短くなります。
ベクトルを足し合わせると、反射ベクトルが得られます。
これを元の図に戻すと、正しいように見えます。
その反射方向を使用して、キューブマップを見てオブジェクトの表面を色付けします。
これは、表面の回転を設定し、方程式のさまざまな部分を見ることができる図です。また、反射ベクトルがキューブマップのさまざまな面を指し、表面の色に影響を与えることもわかります。
反射の仕組みと、それを使用してキューブマップから値を検索できることがわかったので、シェーダーを変更してそれを実行しましょう。
まず、頂点シェーダーで、頂点のワールド位置とワールド指向の法線を計算し、それらをステージ間変数としてフラグメントシェーダーに渡します。これは、スポットライトに関する記事で行ったことと似ています。
struct Uniforms {
- matrix: mat4x4f,
+ projection: mat4x4f,
+ view: mat4x4f,
+ world: mat4x4f,
+ cameraPosition: vec3f,
};
struct Vertex {
@location(0) position: vec4f,
+ @location(1) normal: vec3f,
};
struct VSOutput {
@builtin(position) position: vec4f,
- @location(0) normal: vec3f,
+ @location(0) worldPosition: vec3f,
+ @location(1) worldNormal: vec3f,
};
@group(0) @binding(0) var<uniform> uni: Uniforms;
@group(0) @binding(1) var ourSampler: sampler;
@group(0) @binding(2) var ourTexture: texture_cube<f32>;
@vertex fn vs(vert: Vertex) -> VSOutput {
var vsOut: VSOutput;
- vsOut.position = uni.matrix * vert.position;
- vsOut.normal = normalize(vert.position.xyz);
+ vsOut.position = uni.projection * uni.view * uni.world * vert.position;
+ vsOut.worldPosition = (uni.world * vert.position).xyz;
+ vsOut.worldNormal = (uni.world * vec4f(vert.normal, 0)).xyz;
return vsOut;
}
次に、フラグメントシェーダーで、頂点間でサーフェスを横切って補間されるため、worldNormalを正規化します。カメラに関する記事の行列演算に基づいて、ビュー行列の3行目を取得してそれを否定し、それをサーフェスのワールド位置から引くことで、カメラのワールド位置を取得できます。これにより、eyeToSurfaceDirが得られます。
そして最後に、上記で説明した式を実装する組み込みWGSL関数であるreflectを使用します。その結果を使用して、キューブマップから色を取得します。
@fragment fn fs(vsOut: VSOutput) -> @location(0) vec4f {
+ let worldNormal = normalize(vsOut.worldNormal);
+ let eyeToSurfaceDir = normalize(vsOut.worldPosition - uni.cameraPosition);
+ let direction = reflect(eyeToSurfaceDir, worldNormal);
- return textureSample(ourTexture, ourSampler, normalize(vsOut.normal));
+ return textureSample(ourTexture, ourSampler, direction);
}
この例には、実際の法線も必要です。キューブの面が平らに見えるように、実際の法線が必要です。前の例では、キューブマップが機能することを確認するためだけに、キューブの位置を再利用しましたが、この場合は、ライティングに関する記事で説明したように、キューブの実際の法線が必要です。
const vertexData = new Float32Array([ - // 前面 - -1, 1, 1, - -1, -1, 1, - 1, 1, 1, - 1, -1, 1, - // 右面 - 1, 1, -1, - 1, 1, 1, - 1, -1, -1, - 1, -1, 1, - // 背面 - 1, 1, -1, - 1, -1, -1, - -1, 1, -1, - -1, -1, -1, - // 左面 - -1, 1, 1, - -1, 1, -1, - -1, -1, 1, - -1, -1, -1, - // 底面 - 1, -1, 1, - -1, -1, 1, - 1, -1, -1, - -1, -1, -1, - // 上面 - -1, 1, 1, - 1, 1, 1, - -1, 1, -1, - 1, 1, -1, + // 位置 | 法線 + //-------------+---------------------- + // 前面 正のz + -1, 1, 1, 0, 0, 1, + -1, -1, 1, 0, 0, 1, + 1, 1, 1, 0, 0, 1, + 1, -1, 1, 0, 0, 1, + // 右面 正のx + 1, 1, -1, 1, 0, 0, + 1, 1, 1, 1, 0, 0, + 1, -1, -1, 1, 0, 0, + 1, -1, 1, 1, 0, 0, + // 背面 負のz + 1, 1, -1, 0, 0, -1, + 1, -1, -1, 0, 0, -1, + -1, 1, -1, 0, 0, -1, + -1, -1, -1, 0, 0, -1, + // 左面 負のx + -1, 1, 1, -1, 0, 0, + -1, 1, -1, -1, 0, 0, + -1, -1, 1, -1, 0, 0, + -1, -1, -1, -1, 0, 0, + // 底面 負のy + 1, -1, 1, 0, -1, 0, + -1, -1, 1, 0, -1, 0, + 1, -1, -1, 0, -1, 0, + -1, -1, -1, 0, -1, 0, + // 上面 正のy + -1, 1, 1, 0, 1, 0, + 1, 1, 1, 0, 1, 0, + -1, 1, -1, 0, 1, 0, + 1, 1, -1, 0, 1, 0, ]);
そしてもちろん、法線を提供するためにパイプラインを変更する必要があります。
const pipeline = device.createRenderPipeline({
label: '2 attributes',
layout: 'auto',
vertex: {
module,
buffers: [
{
- arrayStride: (3) * 4, // (3) floats 4 bytes each
+ arrayStride: (3 + 3) * 4, // (6) floats 4 bytes each
attributes: [
{shaderLocation: 0, offset: 0, format: 'float32x3'}, // position
+ {shaderLocation: 1, offset: 12, format: 'float32x3'}, // normal
],
},
],
},
いつものように、ユニフォームバッファとビューを設定する必要があります。
- // 行列
- const uniformBufferSize = (16) * 4;
+ // 射影、ビュー、ワールド、カメラ位置、パッド
+ const uniformBufferSize = (16 + 16 + 16 + 3 + 1) * 4;
const uniformBuffer = device.createBuffer({
label: 'uniforms',
size: uniformBufferSize,
usage: GPUBufferUsage.UNIFORM | GPUBufferUsage.COPY_DST,
});
const uniformValues = new Float32Array(uniformBufferSize / 4);
// float32インデックスでのさまざまなユニフォーム値へのオフセット
- const kMatrixOffset = 0;
- const matrixValue = uniformValues.subarray(kMatrixOffset, kMatrixOffset + 16);
const kProjectionOffset = 0;
const kViewOffset = 16;
const kWorldOffset = 32;
+ const projectionValue = uniformValues.subarray(kProjectionOffset, kProjectionOffset + 16);
+ const viewValue = uniformValues.subarray(kViewOffset, kViewOffset + 16);
+ const worldValue = uniformValues.subarray(kWorldOffset, kWorldOffset + 16);
+ const cameraPositionValue = uniformValues.subarray(
+ kCameraPositionOffset, kCameraPositionOffset + 3);
そして、レンダリング時にそれらを設定する必要があります。
const aspect = canvas.clientWidth / canvas.clientHeight;
mat4.perspective(
60 * Math.PI / 180,
aspect,
0.1, // zNear
10, // zFar
- matrixValue,
+ projectionValue,
);
+ cameraPositionValue.set([0, 0, 4]); // カメラ位置
const view = mat4.lookAt(
- [0, 1, 5], // カメラ位置
+ cameraPositionValue,
[0, 0, 0], // ターゲット
[0, 1, 0], // 上
+ viewValue,
);
- mat4.multiply(matrixValue, view, matrixValue);
- mat4.rotateX(matrixValue, settings.rotation[0], matrixValue);
- mat4.rotateY(matrixValue, settings.rotation[1], matrixValue);
- mat4.rotateZ(matrixValue, settings.rotation[2], matrixValue);
+ mat4.identity(worldValue);
+ mat4.rotateX(worldValue, time * -0.1, worldValue);
+ mat4.rotateY(worldValue, time * -0.2, worldValue);
// ユニフォーム値をユニフォームバッファにアップロードします
device.queue.writeBuffer(uniformBuffer, 0, uniformValues);
レンダリングをrAFループに変更しましょう。
- const degToRad = d => d * Math.PI / 180;
-
- const settings = {
- rotation: [degToRad(20), degToRad(25), degToRad(0)],
- };
-
- const radToDegOptions = { min: -360, max: 360, step: 1, converters: GUI.converters.radToDeg };
-
- const gui = new GUI();
- gui.onChange(render);
- gui.add(settings.rotation, '0', radToDegOptions).name('rotation.x');
- gui.add(settings.rotation, '1', radToDegOptions).name('rotation.y');
- gui.add(settings.rotation, '2', radToDegOptions).name('rotation.z');
let depthTexture;
- function render() {
+ function render(time) {
+ time *= 0.001;
...
+ requestAnimationFrame(render);
+ }
+ requestAnimationFrame(render);
const observer = new ResizeObserver(entries => {
for (const entry of entries) {
const canvas = entry.target;
const width = entry.contentBoxSize[0].inlineSize;
const height = entry.contentBoxSize[0].blockSize;
canvas.width = Math.max(1, Math.min(width, device.limits.maxTextureDimension2D));
canvas.height = Math.max(1, Math.min(height, device.limits.maxTextureDimension2D));
- // 再レンダリング
- render();
}
});
observer.observe(canvas);
そして、それで得られるものは次のとおりです。
よく見ると、小さな問題が見えるかもしれません。

環境マップが適用されたキューブは、鏡張りのキューブを表します。しかし、鏡は通常、水平方向に反転して表示されます。何が起こっているのでしょうか?
問題は、私たちがキューブの内側から外側を見ていることですが、前の記事から、キューブの各面にテクスチャをマッピングしたとき、外側から見ると正しくマッピングされたことを思い出してください。
これを別の見方をすると、キューブの内側から見ると、「y-up右手座標系」にいます。これは、正のzが前方であることを意味します。一方、これまでの3D数学はすべて、「y-up左手座標系」[1]を使用しており、負のzが前方です。簡単な解決策は、テクスチャをサンプリングするときにZ座標を反転させることです。
- return textureSample(ourTexture, ourSampler, direction); + return textureSample(ourTexture, ourSampler, direction * vec3f(1, 1, -1));
これで、鏡のように反射が反転しました。
次に、スカイボックスにキューブマップを使用する方法を示します。
polyhaven.comで何百もの無料のパノラマを見つけることができます。それらのいずれかのjpgまたはpngをダウンロードします(右上の≡メニューをクリックします)。次に、このページに移動し、.jpgまたは.pngファイルをそこにドラッグアンドドロップします。必要なサイズと形式を選択し、ボタンをクリックして画像をキューブマップの面として保存します。
正直なところ、この「左手」対「右手」座標系の話は非常に紛らわしいと感じており、「+xが右、+yが上、-zが前方」と言った方がはるかに曖昧さがないと思います。もっと知りたい場合は、ググってみてください😄 ↩︎