1
joynvda 2 月 25 日
#1 硬件
Jetson 本身自带整个视频获取框架 DeepStream ;然后转出 OpenCV 给 YOLO 算法。初版的 jetson nano 就可以。 写清楚技术需求,直接找 Nvidia 和 Ultralytics 的人就能把原型给砌起来。 如果传感器和视觉识别在同一地方,没有必要用 ESP32 。Jetson 本身的 GPIO 就有 I2C 可以接传感器。 找个做外壳的封起来。 想卖给政府,换华为、算能芯片一样可以搭起来。这些在 3 大运营商政企都很成熟。 #2 AI 算法 剩下就是识别算法,这个有难度。涉及摄像头指标,清晰度、安装角度距离、光照。 假设有足够的图片,找人做训练。会得到不错的准确度识别权重。 #3 业务逻辑/结项 剩下就看要驱动什么了?如果要求精度不高,可以通过代码逻辑对识别误差进行处理。 做技术或者乙方这是能否收到钱的关键点。 #4 实施方案 如果有钱,直接找 Nvidia 合作定制,让 Ultralytics (开发 YOLO 系列的厂家,在深圳有办公室,LinkedIn 上开着职位)把 AI 模型训练出来,高举高打。 如果想省钱,找做过类似 CV 项目的外包公司,包括边缘盒子的,也能勉强做出来。 这个动荡的时代,现金为王,每月能按时发工资就很好了。 |
2
sethome 2 月 26 日
真的假的,看到深圳不会是深圳科创学院吧?
恰好你说的我都会,搞了好多年机器人了,斗胆锐评一下。 我觉得这个难度主要是机械部分,如楼上述,你这个视觉方面甚至不需要任何编程(伪),上传数据集直接得到可用的 YOLO 模型等目标检测模型,所以不重复讨论。电子部分,PLC 就很适合这一套,基恩士那边有全套的,基于以太网的传感器,控制器巴拉巴拉,西门子的 CPLD 让你根本挂不了机,电路板开销为 0 ,根本不需要什么硬件口牙,非标自动化的常见打法,哪怕是生物的发酵罐也大多是由 PLC 设备组成的。其次设备选型,STM32 还好,ESP32 的开发效率和屎一样,不联网没必要。最后提一嘴,自己做,设计+打样 PCBA 就一周了,不如 PLC 。 那么回归开头,视觉和硬件都没问题了,主要还是机械。我认为短时间内无法找到很好的方案去排除你所谓的异物,需要多试几个机构看看,电推杆很慢的,除非你是行星推杆或者气推杆(很吵),抑或是机械臂(那就得上 ROS+3D 摄像头+Moveit ),其次是你怎么敢说塑料袋不会藏在食物残渣下面。。。是不是需要什么翻找机构呢? 以上可能对一个 MVP 有些苛刻了,但是考虑更多的 Corner Cases 是必要的,跑 30 天,电推杆和步进电机真不行。。。。优秀机械结构也能很好给视觉识别,排除乐色的机构提供方便。 |
3
booboo 2 月 26 日 via Android
看着这个硬件部分没有什么特别大的难度。但是你这个商业听着还行,之前看到附近有个农场也在做类似养殖场的规划
|
4
moyupai 2 月 26 日
我买的乌龟料,说是面包虫,结果到货全是黑水虻幼虫,只有极少量的几条面包虫,大部分人可能不知道黑水虻幼虫是啥,我感觉就是蛆
|
5
chenyu0532 2 月 26 日
第一段我就看不懂。。有能解释下的吗。。
|
6
chenyu0532 2 月 26 日
AI 垃圾处理?
|
7
NickLee123 2 月 26 日
偶然点进,真是令人叹为观止
(可能)符合你要求的人已经入职智元机器人了,叫彭志辉 但他 4 个月应该也搞不定 |
9
joynvda 2 月 27 日
|
10
zhouhuab 2 月 28 日
op 好厉害,致敬,好久没在 v2 看到这么厉害的
|