视频画面里,11号机器人还在原地,只是看起来明显不对劲,因为俯视角度的它看起来似乎是“劈叉”了。
“这个姿势。。。难道登陆机器人又升级了?植入舞蹈模块了?它们是嫌哨位警戒太枯燥所以才。。。”
“怕是已经散架了!”
盯着定格的画面,孟时秋的声音有点低沉。
“散架?”
参谋长姜凯还想质疑,只是随着登陆艇降落,几名机器人来到受损机器人身边后,11号机器人更多的细节暴露在所有人面前。
比孟时秋说得还要惨烈,机器人不但被肢解了,它的腹部以下直接没有了,零件全都散在周围厚厚的尘土里。
而机器人身上较大的部件连同四周的尘土层明显有凹陷下去的痕迹,就好像被什么重物压到了一样。
救助机器人开始用扫描系统快速锁定散落在周围10米范围内的零件,它们在系统命令下尽可能完整的将这些零件收集到登陆艇。
看着几台机器人外接视频系统传回来的画面,孟时秋有点愤怒了。
“不要落下一颗零件,收集完成后马上赶到10号机器人那里,我感觉其他两台机器人的情况也不容乐观。
散落的零件对应机器人进行分类储存,周围环境包括那些凹陷痕迹进行精准画面捕获,水平、俯视、侧视状态下都要留底。
我们要在机舱还原事发现场的三维立体构图,方便我们分析机器人是因为什么变成这样的。
注意:尤其要找到机器人的中央处理计算机部分、感应器数据处理数据模块。。。”
孟时秋针对有点惨烈的现场做出了针对性部署,很快位于第五星球北极地区“案发现场”的机器人都开始忙碌起来。
拍照、拾取、空中探测等等。
有了11号机器人这个模板,指挥中心的人对后面两台几乎相同遭遇的机器人已经有了心理准备。
只是麻烦的是,后面两台机器人几乎全都深深嵌入尘土层中,最深的一块零部件竟然深埋到地下30多米处,这让负责“打捞”的机器人花费了相当长时间来搜寻。
等全部工作接近结束的时候, 指挥现场的人都松了一口气。
总的搜寻、拾取工作还算顺利,并没有遇到肢解机器人的“凶手”。。。
“为什么11号机器人跟后面两台机器人的分解状态不一样,是周围环境不同吗?”
参谋长这句话是对着登陆小队队长肖远航说得。
后者想了想后肯定地点了点头,“这颗行星的地表充斥着大量细微尘土颗粒构成的浮土层,经年累月的沉淀下,很多地方已经夯实了。
但是因为风力侵袭或者其他原因,地表的应力状态并不不同。
而且我们进行地面勘察的时候发现这里并不是平坦的平原,浮土层下方有大片的岩石结构群,应该是山峰一类的地面构造。
只是跟我们着陆其他行星地面的情况不同,这里全被尘土覆盖了,那些本该雄伟矗立在地表的群山也理所当然的变成了埋葬在尘土中的【暗礁】”
肖远航的回答暂时解释了部分疑惑,但指挥中心的人依然一脸愁容:损失了三台机器人暂且不提,关键现在最大的问题是他们不知道它们是怎么被肢解的,这事故报告跟航行日志怎么写?
没有监控视频佐证,也没有登陆队员见证,孟时秋他们将所有的希望都寄托于稍后的事故现场还原。
这是一种特殊的技术还原分析过程,类似空难的事故勘察。
跟后者的调查过程一样,事故还原首要前提就是找一块大的空地,然后将那些零件按照机体结构或者发现的位置开始摆放。
通过现场勘测零件的变形状态跟受力变化利用技术手段还原机器人被分解的过程。。。
等处理完这些工作后,时间已经来到了两小时后。
孟时秋将战舰指挥的工作交给副舰长后便跟姜凯他们来到巡洋舰的机库。
这里已经按照机器人的发现状态被摆成了一个相当于两个标准篮球场地大小的事故还原现场。
为了力求还原细节,这些被肢解成几百块的零件并不是平铺在地上,它们被按照各自嵌入尘土中的深度摆成了一幅震撼的三维模型图,远远看去非常像一个复杂抽象的空中雕塑。
登上旁边的高架升降梯,负责技术还原的郭主任开始向孟时秋他们解释整个还原过程。
“地面上或许看不清楚,我们可以通过升降梯升到30米的空中俯瞰整个还原过程。
通过机器人现场储存的数据,它们能协助我们快速将每一个零部件还原现场发现时的状态,精确度能精确到摆放角度达到毫秒级。
支撑零件的装置由特殊材料构成,在特殊光镜的配合下,它们能隐形,这样方便我们的技术人员通过仪器精准测出每个零部件的受损状态。”
郭主任说完,他们的升降梯已经升到了高空中。
孟时秋往下看去,他的这个角度几乎完整还原了登陆艇俯视的场景。
还原现场的 技术工程人员已经开始进场进行专业的技术勘察,他们很多都拿着手持的无线结构扫描仪。
随着现场光照亮度降低,扫描仪工作时发出的频闪白光再次将暗戳戳的机库点亮。。。
“扫描仪扫描的数据通过无线装置传导至后台终端,利用工程AI技术进行系统整合。
这样我们就能快速分析出机器人分解过程中的受力情况,机器人摆放的时候我们的技术人员已经初步勘察过了。
我们的看法是不像爆炸分解或者高空坠落分解,应该是重压下的应力分解,就好比被上千米高的重物砸中。
机器人内部一些关键的cpU,数据硬盘都拿去技术中心进行数据还原了。
双管齐下,应该很快就能给出一个初步的结论!”
“有多快?”
“24小时左右!”