zoukankan      html  css  js  c++  java
  • 【转载】OGRE之坐标系、向量与转换

     坐标与向量:

    OGRE跟其它的图形引擎一样使用x,z来表示水平平面, 用y来表示垂直方向.面对你的显示器,x轴是从左到右,右边是

    正方向;y轴是从下到上,上方是正方向;z轴是从里向外,外面是正方向. OGRE是用向量类来表示位置跟方向

    的,Vector2,Vector3,Vector4是OGRE中定义的三种向量,然而我们最常使用的是Vector3.

    void setDirection(x, y, z); 设定方向
    Vector3 getDirection(); 获得方向
    Vector3 getUp(); 获得向上的向量
    Vector3 getRight();获得向右的向量
    void lookAt(x, y, z); 朝向某一点
    void yaw(Real yaw); void roll( Real roll), void pitch(Real pitch);
    void rotate(Vector3 &axis, Real degree);
    void setAutoTracking(bool bEnabled, SceneNode *target = 0, const Vector3 &offset);

    const Matrix& getProjectionMatrixRS() const;   //RS表示RenderSystem,该函数将根据当前的渲染系统来决定

    返回的投影矩阵(左手或右手坐标系).
    const Matrix& getProjectionMatrixWithRSDepth() const;// 这个将返回ogre本地格式的矩阵(右手坐标系的).
    但它的深度格式根据当前渲染系统决定深度范围是(-1,1)或者是(0,1).
    const Matrix& getProjectionMatrix() const; //这个不仅返回是ogre本地格式的矩阵(右手坐标系的),而且还保

    证深度范围(-1,1). {没有RS,不受渲染系统影响...}

    const Matrix& getViewMatrix() const;

    因为支持多视口渲染(view port),OGRE为多视口维护了Z-ORDER, 根据Z-ORDER的不同来决定对相覆盖的视口的遮挡.

    需要注意的是,即使被遮挡的部分每帧也是被渲染的,应考虑其代价.
    Viewport *vpFront, *vpBack;
    vpBack= window->addViewport(camera, 0); //默认为整个客户区大小
    vpFront = window->addViewport(camera, 1, 0.0, 0.0, 0.5, 0.5); //左上角四分之一大小,叠在vpFront前面.

    vpBack->setBackgroundColour(ColourValue(1.0f, 0.0f, 0.0));
    vpFront->setBackgroundColour(ColourValue::Red));

    //设置每帧是否自动清除缓冲
    vpBack->setClearEveryFrame(true, FBT_COLOUR | FBT_DEPTH);
    vpFront->setClearEveryFrame(false);

     

     

    OGRE的2D坐标、CEGUI坐标、鼠标坐标

     

    屏幕坐标系:左上角为(0, 0)右下角为(1, 1)

    OGRE的2D坐标系:左上角为(-1, 1)右下角为(1, -1)

    CEGUI坐标系:左上角为(0, 0),单位像素

     

    转换公式(鼠标坐标=>OGRE的2D坐标)

    void setCorners(float left, float top, float right, float bottom)

    {

        left = left * 2 - 1;
        right = right * 2 - 1;
        top = 1 - top * 2;
        bottom = 1 - bottom * 2;
    }

     

    对于根据鼠标位置来产生射线:

    bool mousePressed(const OIS::MouseEvent &arg, OIS::MouseButtonID id)

    {

    ...

        CEGUI::Point mousePos = CEGUI::MouseCursor::getSingleton().getPosition();
        Ray mouseRay = mCamera->getCameraToViewportRay(mousePos.d_x/float(arg.state.width), mousePos.d_y/float(arg.state.height));

    ...
    }

    其中函数

    Ray getCameraToViewportRay(Real x, Real y) const;

    // x and y are in “normalized” (0.0 to 1.0) screen coordinates

    其中两个参数是对屏幕坐标系来说的,

    所以

    x = mousePos.d_x / float(arg.state.width)

    y = mousePos.d_y / float(arg.state.height)

     

    arg.state.width是渲染窗口的宽单位为像素

    arg.state.height是渲染窗口的高单位为像素

    mousePos.d_x是鼠标所在位置到渲染窗口左边界的距离单位为像素

    mousePos.d_y是鼠标所在位置到渲染窗口上边界的距离单位为像素

    http://blog.csdn.net/kamaliang/article/details/3959282 
  • 相关阅读:
    07、从0到1:API测试怎么做?
    06、软件测试工程师的核心竞争力是什么?
    05、如何高效填写软件缺陷报告?
    04、你知道软件开发各阶段都有哪些自动化测试技术吗?
    03、为什么要做自动化测试?什么样的项目适合做自动化测试
    02、如何设计一个"好的"测试用例
    01、你真的懂测试吗?从"用户登录"测试谈起
    2020年03月15号--提升团队工作效率的一些方法
    01月02号总结
    ietester
  • 原文地址:https://www.cnblogs.com/ylwn817/p/2437457.html
Copyright © 2011-2022 走看看