我正在研究一些非常简单的光线跟踪器。
目前,我正在尝试使透视相机正常工作。
我使用这样的循环来渲染场景(只有两个硬编码的球体-我从其中心向每个像素投射光线,不应用AA):
Camera * camera = new PerspectiveCamera({ 0.0f, 0.0f, 0.0f }/*pos*/,
{ 0.0f, 0.0f, 1.0f }/*direction*/, { 0.0f, 1.0f, 0.0f }/*up*/,
buffer->getSize() /*projectionPlaneSize*/);
Sphere * sphere1 = new Sphere({ 300.0f, 50.0f, 1000.0f }, 100.0f); //center, radius
Sphere * sphere2 = new Sphere({ 100.0f, 50.0f, 1000.0f }, 50.0f);
for(int i = 0; i < buffer->getSize().getX(); i++) {
for(int j = 0; j < buffer->getSize().getY(); j++) {
//for each pixel of buffer (image)
double centerX = i + 0.5;
double centerY = j + 0.5;
Geometries::Ray ray = camera->generateRay(centerX, centerY);
Collision * collision = ray.testCollision(sphere1, sphere2);
if(collision){
//output red
}else{
//output blue
}
}
}
Camera::generateRay(float x, float y)
是:Camera::generateRay(float x, float y) {
//position = camera position, direction = camera direction etc.
Point2D xy = fromImageToPlaneSpace({ x, y });
Vector3D imagePoint = right * xy.getX() + up * xy.getY() + position + direction;
Vector3D rayDirection = imagePoint - position;
rayDirection.normalizeIt();
return Geometries::Ray(position, rayDirection);
}
Point2D fromImageToPlaneSpace(Point2D uv) {
float width = projectionPlaneSize.getX();
float height = projectionPlaneSize.getY();
float x = ((2 * uv.getX() - width) / width) * tan(fovX);
float y = ((2 * uv.getY() - height) / height) * tan(fovY);
return Point2D(x, y);
}
FOV:
double fovX = 3.14159265359 / 4.0;
double fovY = projectionPlaneSize.getY() / projectionPlaneSize.getX() * fovX;
对于
1:1
width:height长宽比(例如400x400),我得到了很好的结果:但我得到例如错误800x400:
对于更大的宽高比(例如1200x400),这甚至会更糟:
我做错了什么或我忽略了哪一步?
可能是精度问题,或者是
fromImageToPlaneSpace(...)
问题? 最佳答案
警告:我在一家视频公司工作了5年,但我有些使用rust 。
注意:撰写本文后,我意识到像素长宽比可能不是您的问题,因为屏幕长宽比也似乎是错误的,因此可以略微降低一点。
但是,在视频中,我们关注两个不同的视频源:屏幕长宽比为standard definition
的4:3
和屏幕长宽比为16:9
的高清晰度。
但是,还有另一个变量/参数:像素长宽比。在标准清晰度下,像素是正方形,在hidef中,像素是矩形(反之亦然,我不记得了)。
假设当前的屏幕比例计算正确,则可能必须考虑到像素纵横比与摄像机来源或所用显示器不同。
屏幕长宽比和像素长宽比都可以存储为.mp4,.jpeg等。
我下载了1200x400 jpeg。我在其上使用ImageMagick来仅更改像素长宽比:
convert orig.jpg -resize 125x100%\! new.jpg
这表示更改像素长宽比(将宽度增加125%,并保持高度不变)。
\!
表示像素与屏幕的比率。 125是因为我记得矩形像素为8x10。无论如何,您需要将水平宽度增加10/8,即1.25或125%不用说这给了我圆形而不是椭圆形。
实际上,通过调整屏幕宽高比,我可以获得相同的效果。
因此,在您的计算中的某处,您正在引入该因素的失真。您在哪里应用缩放?函数调用有何不同?
您在哪里设置屏幕尺寸/比率?我认为没有显示(例如,我在任何地方都看不到1200或400)。
如果我不得不冒险猜测,则必须在
fromImageToPlaneSpace
中考虑长宽比。宽度/高度需要预缩放,或者x =
和/或y =
行需要缩放因子。 AFAICT,您所拥有的目前仅适用于正方形几何。要进行测试,请使用1200x400的情况,将x乘以125%[kludge],我敢打赌您会得到一些东西。关于c++ - 相机(简单的光线转换器)的纵横比计算错误,我们在Stack Overflow上找到一个类似的问题:https://stackoverflow.com/questions/33491030/