当前位置: 首页 > news >正文

blender 相机参数

目录

设置相机参数:

3. 设置相机参数示例

4. 相机透视与正交

5. 额外的高级设置

设置相机参数:

设置渲染器:

外参转换函数

转换测试代码:

获取blender渲染外参:


设置相机参数:

3. 设置相机参数示例

假设你有一个相机,并希望设置它的焦距和位置,可以通过 Python 脚本来设置这些参数:

python

import bpy # 获取当前场景中的相机 
camera = bpy.context.scene.camera # 设置相机的位置 (外参) 
camera.location = (0, 0, 10) # 设置相机的旋转 (外参) 
camera.rotation_euler = (1.5708, 0, 0) # 使用欧拉角旋转 
# 设置相机的焦距 (内参) 
camera.data.lens = 50 # 焦距为 50mm 
# 设置传感器的尺寸 (内参) 
camera.data.sensor_width = 32 # 传感器宽度为 32mm 
camera.data.sensor_height = 18 # 传感器高度为 18mm

4. 相机透视与正交

  • 如果需要调整相机的视图类型,可以选择 透视视图正交视图。对于渲染的视图设置,可以通过 camera.data.type 属性来设置:
    • camera.data.type = 'PERSP':透视相机
    • camera.data.type = 'ORTHO':正交相机

5. 额外的高级设置

  • 深度裁剪(Clipping):控制相机的可视范围,决定从相机视点出发,哪些物体会被渲染。你可以通过 clip_startclip_end 控制这些裁剪距离。

camera.data.clip_start = 0.1

camera.data.clip_end = 1000

设置相机参数:

intrs_path = scene_dir + '/pred_intrinsics.txt'
intrs = np.loadtxt(intrs_path)
intrs = np.array(intrs, np.float32)
intrinsic = [intrs[0][0], intrs[0][0], intrs[0][2], intrs[0][5]]
print(intrinsic)
fx, fy, cx, cy = intrinsic[0], intrinsic[1], intrinsic[2], intrinsic[3]width = float(args.image_width)
width_r = width / 512.0 * cx * 2
height_r = width / 512.0 * cy * 2
fx_r = width / 512.0 * fxload_object(object_file)# Set up cameras
cam = scene.objects["Camera"]
# cam.data.lens = 35
cam.data.sensor_width = 32res_x = render.resolution_x
if render.resolution_y > render.resolution_x:res_x = render.resolution_y
cam.data.lens = cam.data.sensor_width * fx / res_x

设置渲染器:

import bpy# 设置 Cycles 渲染器为 GPU 渲染
scene = bpy.context.scene
scene.cycles.device = "GPU"  # 使用 GPU 渲染# 设置 Cycles 渲染样本数量,影响渲染质量和时间
scene.cycles.samples = 128  # 渲染时使用的样本数量# 控制材质的反射和折射反弹次数
scene.cycles.diffuse_bounces = 1  # 漫反射反弹次数
scene.cycles.glossy_bounces = 1   # 镜面反射反弹次数
scene.cycles.transparent_max_bounces = 3  # 透明材质最大反弹次数
scene.cycles.transmission_bounces = 3  # 透光材质的最大反弹次数# 设置噪声过滤的宽度
scene.cycles.filter_width = 0.01  # 噪声过滤宽度# 启用去噪功能
scene.cycles.use_denoising = True  # 开启去噪功能# 启用透明背景渲染(常用于合成)
scene.render.film_transparent = True  # 启用透明背景# 刷新 GPU 设备设置
bpy.context.preferences.addons["cycles"].preferences.get_devices()  # 获取可用的设备# 设置 GPU 渲染使用 CUDA 还是 OpenCL(取决于你的 GPU)
bpy.context.preferences.addons["cycles"].preferences.compute_device_type = "CUDA"  # 或者 "OPENCL"

外参转换函数

def set_camera(c2w: np.ndarray) -> bpy.types.Object:"""设置Blender相机的位置和姿态Args:c2w: 4x4相机到世界变换矩阵,通常来自其他系统(如NeRF),可能使用不同的坐标系Returns:bpy.types.Object: 配置后的相机对象"""# 获取Blender中的相机对象camera = bpy.data.objects["Camera"]# 应用坐标系变换:# 1. 先翻转输入坐标系的Y和Z轴方向# 2. 再调整坐标轴方向以适配Blender的相机坐标系transformed_matrix = BLENDER_AXIS_TRANSFORM @ (c2w @ COORDINATE_FLIP)# 将变换后的矩阵转置后赋给Blender相机# 注:Blender的matrix_world使用行主序,而numpy默认行存储,转置确保矩阵正确应用camera.matrix_world = transformed_matrix.Treturn camera

转换测试代码:

import numpy as np
BLENDER_AXIS_TRANSFORM = np.array([[1, 0, 0, 0], [0, 0, 1, 0], [0, -1, 0, 0], [0, 0, 0, 1]], dtype=np.float32)# 该矩阵翻转Y和Z轴,用于调整坐标系的旋向性(例如从右手系到左手系)
COORDINATE_FLIP = np.array([[1, 0, 0, 0], [0, -1, 0, 0], [0, 0, -1, 0], [0, 0, 0, 1]], dtype=np.float32)data=[i+1 for i in range(16)]
c2w=np.array(data).reshape(-1,4)print(c2w)
print(COORDINATE_FLIP)
data=(c2w @ COORDINATE_FLIP)
print(BLENDER_AXIS_TRANSFORM)
print(data)
transformed_matrix = BLENDER_AXIS_TRANSFORM @ dataprint(transformed_matrix)

获取blender渲染外参:

https://github.com/XuweiyiChen/Diffusion4D/blob/f6aab73453976b9d0636cdf434be8c916bc5e60d/rendering/blender_cpu.py

def get_3x4_RT_matrix_from_blender(cam: bpy.types.Object) -> Matrix:"""Returns the 3x4 RT matrix from the given camera.Taken from Zero123, which in turn was taken fromhttps://github.com/panmari/stanford-shapenet-renderer/blob/master/render_blender.pyArgs:cam (bpy.types.Object): The camera object.Returns:Matrix: The 3x4 RT matrix from the given camera."""# Use matrix_world instead to account for all constraintslocation, rotation = cam.matrix_world.decompose()[0:2]R_world2bcam = rotation.to_matrix().transposed()# Use location from matrix_world to account for constraints:T_world2bcam = -1 * R_world2bcam @ location# put into 3x4 matrixRT = Matrix((R_world2bcam[0][:] + (T_world2bcam[0],), R_world2bcam[1][:] + (T_world2bcam[1],), R_world2bcam[2][:] + (T_world2bcam[2],),))return RT

http://www.lryc.cn/news/530835.html

相关文章:

  • 在GPIO控制器中,配置通用输入,读取IO口电平时,上拉和下拉起到什么作用
  • Maven工程核心概念GAVP详解:从命名规范到项目协作的基石
  • 如何利用DeepSeek打造医疗领域专属AI助手?从微调到部署全流程解析
  • Redis|前言
  • 眼见着折叠手机面临崩溃,三星计划增强抗摔能力挽救它
  • Leetcode面试高频题分类刷题总结
  • Vue.js `v-memo` 性能优化技巧
  • Altium Designer绘制原理图时画斜线的方法
  • 在K8S中,有哪几种控制器类型?
  • 什么是Rust?它有什么特点?为什么要学习Rust?
  • Golang 并发机制-3:通道(channels)机制详解
  • kamailio的kamctl的使用
  • HarmonyOS:ArkWeb进程
  • UI线程用到COM只能选单线程模型
  • LLMs之DeepSeek:Math-To-Manim的简介(包括DeepSeek R1-Zero的详解)、安装和使用方法、案例应用之详细攻略
  • 在C语言中使用条件变量实现线程同步
  • 图书管理系统 Axios 源码__新增图书
  • Maven全解析:从基础到精通的实战指南
  • 数据密码解锁之DeepSeek 和其他 AI 大模型对比的神秘面纱
  • python算法和数据结构刷题[5]:动态规划
  • Ollama+OpenWebUI部署本地大模型
  • Python从0到100(八十六):神经网络-ShuffleNet通道混合轻量级网络的深入介绍
  • 【网络】传输层协议TCP(重点)
  • 海思ISP开发说明
  • 实验十 Servlet(一)
  • doris:聚合模型的导入更新
  • Java NIO_非阻塞I/O的实现与优化
  • 代码随想录算法训练营Day51 | 101.孤岛的总面积、102.沉没孤岛、103.水流问题、104.建造最大岛屿
  • Games202Lecture 6 Real-time Environment Mapping
  • 在 Zemax 中使用布尔对象创建光学光圈