发布网友 发布时间:2022-08-26 21:08
共4个回答
热心网友 时间:2024-12-12 07:23
楼主的想法特别赞,很有创意,我觉得都是完全可以实现的,只是成本和收益的问题,就是说实现起来很费劲,但不会给微软创造多少收益。开复老师说的那两个问题也都是可以解决的,一是三维建模精度问题,kinect用了一个摄像头捕捉影响,一个红外探测仪探测深度,而没有用两个摄像头,因为摄像头成本比红外探测仪成本高,仅此而已,所以如果微软用两个摄像头,并且提高感光元件精度和帧率的话,是可以实现较为精准的三维建模的,第二个是cpu计算问题,这种图像处理是很消耗cpu的,因为图像处理牵扯很多浮点计算,cpu算浮点不行,针对这个问题有两个方案,一个是云计算,把数据放server上算,算好再给你,当然是假设网络传输没问题,另一个方案是后期处理,没必要用ipad实时处理。热心网友 时间:2024-12-12 07:23
技术上应该不成问题,不过如果完全基于Kinect这套东西,有几个因素不能忽略:<br><br>-Kinect的核心硬件包括RGB摄像头、深度探测器和多阵列麦克风等,意味着ipad的身材和重量可能都会发福<br><br>-Kincct使用独立电源,同时会占用大量CPU的运算机能,作为移动设备,ipad是否吃得消<br><br>-Kinect的定制芯片和微软的语音识别技术申报了大量专利,苹果在ios上潜心研发的语音识别和相关技术能否另辟蹊径并同样给力?热心网友 时间:2024-12-12 07:24
以前大学做毕设的时候看到过荷兰一些教授做的一些视频动作捕捉实验视频,那真是巨大的好几排机器矩阵……不过动作捕捉很灵敏,一些复杂的肢体动作跳舞什么的都能捕捉到。热心网友 时间:2024-12-12 07:24
即时动态建模的算法我见过两种:<br>一个是剑桥某学生弄的名叫ProFORMA的程序,<br>另一个是Microsoft自己的Photosynth,<br>不知道两者在移动设备上的资源消耗如何……