我再次在使用raytracer。我添加了反射和多线程支持。目前,我正在添加折射,但只有一半可以使用。
如您所见,有一个中心球体(没有镜面高光),一个反射球体(右侧)和一个折射球体(左侧)。我对反射很满意,它看起来非常好。对于折射来说,它有点起作用……光被折射,并且球体中的所有阴影都在球体中可见(折射率1.4),但是有一个黑色的外环。
编辑:显然,当我增加球体的折射率时,黑环变大,因此球体变小。相反,当降低折射率时,球体变大,黑环变小……直到将折射率设置为1时,该环才完全消失。
IOR = 1.9
IOR = 1.1
IOR = 1.00001
有趣的是,在IOR = 1时,球体失去了透明度,变成了白色。
我想我涵盖了全部内部思考,这不是这里的问题。
现在的代码:
我将operator |
用于点积,因此(vec|vec)
是点积,而operator ~
用于反转 vector 。 ligth和sphere的对象都存储在Object **objects;
中。
光线追踪功能
Colour raytrace(const Ray &r, const int &depth)
{
//first find the nearest intersection of a ray with an object
Colour finalColour = skyBlue *(r.getDirection()|Vector(0,0,-1)) * SKY_FACTOR;
double t, t_min = INFINITY;
int index_nearObj = -1;
for(int i = 0; i < objSize; i++)
{
if(!dynamic_cast<Light *>(objects[i]))//skip light src
{
t = objects[i]->findParam(r);
if(t > 0 && t < t_min)
{
t_min = t;
index_nearObj = i;
}
}
}
//no intersection
if(index_nearObj < 0)
return finalColour;
Vector intersect = r.getOrigin() + r.getDirection()*t_min;
Vector normal = objects[index_nearObj]->NormalAtIntersect(intersect);
Colour objectColor = objects[index_nearObj]->getColor();
Ray rRefl, rRefr; //reflected and refracted Ray
Colour refl = finalColour, refr = finalColour; //reflected and refracted colours
double reflectance = 0, transmittance = 0;
if(objects[index_nearObj]->isReflective() && depth < MAX_TRACE_DEPTH)
{
//handle reflection
rRefl = objects[index_nearObj]->calcReflectingRay(r, intersect, normal);
refl = raytrace(rRefl, depth + 1);
reflectance = 1;
}
if(objects[index_nearObj]->isRefractive() && depth < MAX_TRACE_DEPTH)
{
//handle transmission
rRefr = objects[index_nearObj]->calcRefractingRay(r, intersect, normal, reflectance, transmittance);
refr = raytrace(rRefr, depth + 1);
}
Ray rShadow; //shadow ray
bool shadowed;
double t_light = -1;
Colour localColour;
Vector tmpv;
//get material properties
double ka = 0.2; //ambient coefficient
double kd; //diffuse coefficient
double ks; //specular coefficient
Colour ambient = ka * objectColor; //ambient component
Colour diffuse, specular;
double brightness;
localColour = ambient;
//look if the object is in shadow or light
//do this by casting a ray from the obj and
// check if there is an intersection with another obj
for(int i = 0; i < objSize; i++)
{
if(dynamic_cast<Light *>(objects[i])) //if object is a light
{
//for each light
shadowed = false;
//create Ray to light
tmpv = objects[i]->getPosition() - intersect;
rShadow = Ray(intersect + (!tmpv) * BIAS, tmpv);
t_light = objects[i]->findParam(rShadow);
if(t_light < 0) //no imtersect, which is quite impossible
continue;
//then we check if that Ray intersects one object that is not a light
for(int j = 0; j < objSize; j++)
{
if(!dynamic_cast<Light *>(objects[j]) && j != index_nearObj)//if obj is not a light
{
t = objects[j]->findParam(rShadow);
//if it is smaller we know the light is behind the object
//--> shadowed by this light
if (t >= 0 && t < t_light)
{
// Set the flag and stop the cycle
shadowed = true;
break;
}
}
}
if(!shadowed)
{
rRefl = objects[index_nearObj]->calcReflectingRay(rShadow, intersect, normal);
//reflected ray from ligh src, for ks
kd = maximum(0.0, (normal|rShadow.getDirection()));
if(objects[index_nearObj]->getShiny() <= 0)
ks = 0;
else
ks = pow(maximum(0.0, (r.getDirection()|rRefl.getDirection())), objects[index_nearObj]->getShiny());
diffuse = kd * objectColor;// * objects[i]->getColour();
specular = ks * objects[i]->getColor();
brightness = 1 /(1 + t_light * DISTANCE_DEPENDENCY_LIGHT);
localColour += brightness * (diffuse + specular);
}
}
}
finalColour = localColour + (transmittance * refr + reflectance * refl);
return finalColour;
}
现在,该函数可以计算折射光线,我使用了几个不同的站点作为资源,每个站点都有相似的算法。这是到目前为止我能做的最好的事情。这可能只是我看不到的微小细节...
Ray Sphere::calcRefractingRay(const Ray &r, const Vector &intersection,Vector &normal, double & refl, double &trans)const
{
double n1, n2, n;
double cosI = (r.getDirection()|normal);
if(cosI > 0.0)
{
n1 = 1.0;
n2 = getRefrIndex();
normal = ~normal;//invert
}
else
{
n1 = getRefrIndex();
n2 = 1.0;
cosI = -cosI;
}
n = n1/n2;
double sinT2 = n*n * (1.0 - cosI * cosI);
double cosT = sqrt(1.0 - sinT2);
//fresnel equations
double rn = (n1 * cosI - n2 * cosT)/(n1 * cosI + n2 * cosT);
double rt = (n2 * cosI - n1 * cosT)/(n2 * cosI + n2 * cosT);
rn *= rn;
rt *= rt;
refl = (rn + rt)*0.5;
trans = 1.0 - refl;
if(n == 1.0)
return r;
if(cosT*cosT < 0.0)//tot inner refl
{
refl = 1;
trans = 0;
return calcReflectingRay(r, intersection, normal);
}
Vector dir = n * r.getDirection() + (n * cosI - cosT)*normal;
return Ray(intersection + dir * BIAS, dir);
}
编辑:我也改变了周围的折射率。
if(cosI > 0.0)
{
n1 = 1.0;
n2 = getRefrIndex();
normal = ~normal;
}
else
{
n1 = getRefrIndex();
n2 = 1.0;
cosI = -cosI;
}
至
if(cosI > 0.0)
{
n1 = getRefrIndex();
n2 = 1.0;
normal = ~normal;
}
else
{
n1 = 1.0;
n2 = getRefrIndex();
cosI = -cosI;
}
然后我得到这个,并且几乎相同(仍然颠倒),折射率为1!
以及反射计算:
Ray Sphere::calcReflectingRay(const Ray &r, const Vector &intersection, const Vector &normal)const
{
Vector rdir = r.getDirection();
Vector dir = rdir - 2 * (rdir|normal) * normal;
return Ray(intersection + dir*BIAS, dir);
//the Ray constructor automatically normalizes directions
}
所以我的问题是:如何修复黑色的外圈?哪个版本正确?
非常感谢您的帮助:)
这是使用g++ 4.8.2在Linux上编译的。
最佳答案
警告:以下仅为猜测,并非确定。我必须更详细地查看代码,以确保发生了什么以及为什么。
就是说,在我看来,您的原始代码基本上是在模拟凹透镜而不是凸透镜。
凸透镜基本上是放大镜,它将来自相对较小区域的光线聚焦到平面上:
这也说明了校正后的代码为何显示颠倒的图像。来自一侧的顶部的光线转换到另一侧的底部(反之亦然)。
回到凹透镜:凹透镜是缩小透镜,可以从透镜前面显示广角图片:
如果您查看此处的右下角,则表明我怀疑是问题所在:尤其是在高折射率的情况下,试图进入透镜的光线与透镜本身的边缘相交。对于所有大于该角度的角度,通常会看到一个黑环,因为镜头的前边缘充当阴影以防止光线进入。
增加折射率会增加该黑环的宽度,因为光线会弯曲得更多,所以边缘的较大部分与透镜的外边缘相交。
如果您担心他们如何使用广角相机镜头避免这种情况,通常的方法是至少在前部使用弯月形镜头:
这不是万能药,但至少可以防止入射光线与前透镜的外边缘相交。根据镜头需要遮盖的确切角度,弯月面的弯曲度通常会比此要小得多(在某些情况下,它会是平凹的),但您可以理解。
最终警告:当然,所有这些都是手工绘制的,仅是为了提供一般性想法,而不是(例如)反射(reflect)任何特定透镜的设计,具有任何特定折射率的元素等。
关于c++ - 光线追踪中的折射?,我们在Stack Overflow上找到一个类似的问题:https://stackoverflow.com/questions/26087106/