实现网
许悠哉

昵称登录后显示

1000/8小时
1年工作经验

机器人工程师

0

被预约次数

0

被收藏次数

0

被评价次数

擅长技能

核心编程与操作系统
编程语言:
C++: 熟练使用C++编写ROS节点,尤其擅长与move_group_interface等库进行交互,实现对机器人的精确控制。
Python: 熟练使用Python进行快速原型开发、编写控制脚本和调用ROS API,特别是在视觉处理和任务逻辑编排方面。
操作系统与构建系统:
Linux (Ubuntu): 日常开发环境,熟悉Linux命令行、Shell脚本和系统配置。
CMake / Catkin: 熟练掌握ROS的编译和构建流程,能够独立创建、配置和管理ROS功能包。
机器人软件与仿真
ROS (Robot Operating System):
核心能力: 能够从零开始搭建ROS工作空间,熟练运用Nodes, Topics, Services, Actionlib进行模块化开发和通信。
坐标系统: 深刻理解并熟练使用TF2进行多坐标系(如base_link, camera_link, world)之间的广播和监听,这是实现手眼协调的关键。
MoveIt! (运动规划框架):
配置与使用: 熟练使用MoveIt! Setup Assistant为机器人模型(URDF)生成配置文件,并能通过C++或Python接口调用其进行路径规划和执行。
场景交互: 能够在规划场景中动态添加/移除碰撞对象(Collision Objects),实现机器人在复杂环境下的主动避障。
Gazebo (物理仿真):
环境搭建: 能够在Gazebo中创建仿真世界,添加机器人和障碍物模型,用于算法的前期验证和调试,有效降低物理样机的测试风险。
ROS集成: 精通Gazebo与ROS的集成,通过插件实现传感器数据的模拟和机器人关节的控制。
URDF (统一机器人描述格式):
能够编写和修改URDF文件,精确定义机器人的运动学链(kinematic chain)、碰撞属性(collision properties)和视觉模型(visual models)。
计算机视觉与感知
OpenCV (核心视觉库):
图像处理: 熟练应用颜色空间转换、滤波、二值化等基础操作,以应对不同光照条件。
目标检测: 精通使用轮廓发现(findContours)和几何矩来定位和分析图像中物体的形状与中心点。
相机标定与位姿估计:
具备扎实的实践经验,能够使用棋盘格或Aruco标记码完成相机的内外参标定和高精度的手眼标定(Hand-Eye Calibration),准确地将像素坐标映射到真实世界坐标。
机器人学基础理论
运动学: 扎实掌握机器人正向与逆向运动学的基本原理,理解MoveIt!背后运动学求解器的工作机制。
路径规划: 了解A*, RRT* 等常用路径规划算法的基本思想,能够理解并调整MoveIt!中不同规划器的核心参数。
开发工具
版本控制: 熟练使用 Git 进行代码版本管理,习惯使用 GitHub 托管个人项目和代码。

项目经验

这是一个个人兴趣驱动的项目,旨在搭建一个能自动识别、抓取并分类不同颜色小物块的桌面自动化系统。目标是验证从视觉感知到运动控制的完整技术链路。
我的工作: 作为该项目的独立开发者,我负责了全部的硬件选型、软件开发和系统集成工作。
搭建ROS工作环境,集成机械臂与摄像头驱动。
开发视觉识别算法,用于定位和分类物块。
实现机械臂的运动规划与抓取逻辑。
进行手眼标定,统一视觉与机械臂的坐标系。

0条评论 雇主评价

暂无评论~

可兼职时间

自由职业者,时间充裕

可兼职地点

浦东
任意

被预约

0

被收藏

0

被评价

0

立即预约

可兼职时间

自由职业者,时间充裕

可兼职地点

浦东
任意