Unity 3d 实现物体跟随摄像机视野运动

https://blog.csdn.net/qq_31411825/article/details/61623857

 

Unity 3d 实现物体跟随摄像机视野运动
Created by miccall (转载请注明出处 miccall.tech )
1. VR实现机器人导航
- Unity 3d 实现物体跟随摄像机视野运动
项目里要求一个机器人跟随在角色旁边,一直飞着,就像一个精灵一样,总在主角的身边,移动,转头,都要移动到合适的位置 。还得让他面向主角,今天就来实现这个样例 。
-

2. 问题思考
- 1. 物体移动到某个给定的位置(target)
- 2. 物体转动到面向摄像机
- 3. 出现在相机的视野当中
- 4. 自定义物体在摄影机的Screen中的位置

3.实现以及方法
-
移动的话 ,本来可以用动画来实现 ,因为动画还没有做好,我就用一个cube当作那个机器人做样例了 。
首先有个cube之后 ,给他放一个移动的脚本。这里我给他命名为PlayerTank 。
我们的目的就是让他运动到某个target ,所以我们得给他指定一个followTransform 。 同时还有他的移动速度和转动速度 。
为了使他移动不是很突兀,我的思路是他先转动到面向follow物体,然后在直线移动到给物体 。所以算法很快写好了 。


void LookTransform(Transform Mtransform)
{
Vector3 tarPos = Mtransform.position;
Vector3 dirRot = tarPos - transform.position;
Quaternion tarRot = Quaternion.LookRotation(dirRot);
transform.rotation = Quaternion.Slerp(transform.rotation, tarRot, rotSpeed * Time.deltaTime);
}

-
简单解释一下,就是先确定物体的位置,然后求出指向他的方向,并用插值的方法,让物体转动到面向指定的物体 。
好了,既然有了朝向的运动方向,那么走到这方向,就很简单了。
-

transform.Translate(new Vector3(0, 0, movementSpeed * Time.deltaTime));
1
-
那么什么时候停止运动呢 ,我想了一下,决定用位置的差来判断
就是
-

Vector3.Distance(transform.position, followTransform.position);
1
-
好了,既然停止的方法也有了,最后要解决的问题就是朝向摄像机了。
突然一想,这是问题么,对,这不是问题 ,哈哈,刚刚写的那个算法,给一个摄像机就解决了嘛 。
然后给出具体的判断逻辑 。
-

//该物体 接近要 到达的目标 指定位置后就停止
if (Vector3.Distance(transform.position, followTransform.position) < 3f)
{
//当物体道到位置时 让物体面 向摄像机
LookTransform(Camre);
return;
}
else
{
//让物体转向 将要运动 的方向
LookTransform(followTransform);
transform.Translate(new Vector3(0, 0, movementSpeed * Time.deltaTime));
}

-
这样就解决了物体移动到target了,下一步就是固定target的位置,让他在摄像机的固定位置了 。
新建一个脚本文件CameraView,挂在摄像机上。为了方便调试,我又用了FPS脚本,就是第一人称视角跟随鼠标转动,就跟cs里面的玩法一样,(百度一大推代码)。
第二个调试算法是一个国外大牛写的 ,他可以给定一个距离,画出摄像机的视野范围
-


-
这里我画了两个边 ,一个是距离摄像机8.5米 用黄色表示,距离摄像机12米的用红色表示。
应为篇幅问题和详略问题,这里不多解释这个算法,有兴趣的可以去研究一下,这里我们引用一下就行了。
-

Vector3[] GetCorners(float distance)
{
Vector3[] corners = new Vector3[4];

float halfFOV = (theCamera.fieldOfView * 0.5f) * Mathf.Deg2Rad;
float aspect = theCamera.aspect;

float height = distance * Mathf.Tan(halfFOV);
float width = height * aspect;

// UpperLeft
corners[0] = tx.position - (tx.right * width);
corners[0] += tx.up * height;
corners[0] += tx.forward * distance;

// UpperRight
corners[1] = tx.position + (tx.right * width);
corners[1] += tx.up * height;
corners[1] += tx.forward * distance;

// LowerLeft
corners[2] = tx.position - (tx.right * width);
corners[2] -= tx.up * height;
corners[2] += tx.forward * distance;

// LowerRight
corners[3] = tx.position + (tx.right * width);
corners[3] -= tx.up * height;
corners[3] += tx.forward * distance;

return corners;
}
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
31
32
void FindUpperCorners()
{
Vector3[] corners = GetCorners(upperDistance);
// for debugging
Debug.DrawLine(corners[0], corners[1], Color.yellow); // UpperLeft -> UpperRight
Debug.DrawLine(corners[1], corners[3], Color.yellow); // UpperRight -> LowerRight
Debug.DrawLine(corners[3], corners[2], Color.yellow); // LowerRight -> LowerLeft
Debug.DrawLine(corners[2], corners[0], Color.yellow); // LowerLeft -> UpperLeft
}
1
2
3
4
5
6
7
8
9
-
debug的时候,直接调用FindUpperCorners()就可以了 。
刚开始的时候 ,我就用的这个调试 ,给出一个位置,然后计算他的偏移量,调试了很久,没有一个良好的效果,我决定换个思路了 ,为了普遍大众 ,我还是把这个调试方法贴出来了,有需要的可以试试 。
第二个我就去翻api了 ,因为我貌似记得有个屏幕坐标和世界坐标转化的什么鬼方法来着。果然不出我所料,这个方法的确是相当的好用的呀 。
试了一下官方给的调试方法,画了一个点出来 。
-
1
2
3
4
5
6
void OnDrawGizmosSelected()
{
Vector3 p = theCamera.ScreenToWorldPoint(new Vector3(100, 200, 8));
Gizmos.color = Color.blue;
//target.position = p;
Gizmos.DrawSphere(p, 1F);
}
1
2
3
4
5
6
7
-
好了,就连我最后决定用的位置也标明了。
然后,我就写了一个很简单的方法来达到目的。
-
1
2
3
4
void maketarget()
{
Vector3 p = theCamera.ScreenToWorldPoint(new Vector3(RH, RV, upperDistance));
target.position = p;
}
1
2
3
4
5
-
写完我都吓了一跳 ,竟然如此简单。还是简单解释一下 ,RH 是水平偏移量,RV是垂直偏移量,upperDistance是距离摄像机的一个平面位置 。
接下来就是运行看效果了 。
-
1
2
3
4
4.中途出现的小BUG
-
莫名其妙的做圆周运动 ,然后我分析了线速度,角速度和半径的关系 ,然后总结出一个基本的规律,他应该是当运动到某个特定的位置 ,正好满足了圆周运动的关系,然后我们调整movementSpeed 和rotSpeed 的值,让他么尽可能的和Distance消除乘积关系,这样出现的几率就微乎其微了 。
感想 -- 其实unity和现实物理,理论物理 还是有很大的不同。
-
————————————————
版权声明:本文为CSDN博主「miccall」的原创文章,遵循 CC 4.0 BY-SA 版权协议,转载请附上原文出处链接及本声明。
原文链接:https://blog.csdn.net/qq_31411825/article/details/61623857

上一篇:亚像素级角点检测


下一篇:CornerNet: Detecting Objects as Paired Keypoints (1)