四千零二十七章 人机融合技术将改变战场模式-《军工科技》


    第(2/3)页

    而且,当人类指挥官在高压环境下做出错误判断时,AI是否有权修正?这又会引发新的权限博弈。”

    此时,一直没有开口说话,专门军事历史专家田教授缓缓开口说:“让我从历史角度谈谈。

    火控雷达诞生时,炮手们也质疑过机器会取代人类直觉;导弹出现后,指挥官们同样担忧失去对战场的直接掌控。

    但最终,技术与人类的磨合推动了战争艺术的进化。我认为,关键不在于谁拥有最终决策权,而在于建立一套动态的人机协作规则。”

    “田教授的观点很有启发性。”

    陈老微微颔首,补充道:“或许可以借鉴航空领域的‘人在回路’控制理念。

    AI作为‘副驾驶’持续提供最优方案,人类指挥官则像‘机长’,拥有最终否决权,但必须承担决策后果。

    同时建立算法审计机制,每次重大决策后回溯AI的运算逻辑,确保其没有偏离人类设定的价值框架。”

    “说到价值框架,这恰恰是最难量化的部分。”

    林教授神情凝重,说道:“不同文化背景下,对战争伦理的认知存在巨大差异。

    我们的AI系统如何避免陷入‘文化偏见’?

    比如某些国家可能默许对敌方基础设施的攻击,而我们坚守‘保护民生’的原则,算法该如何平衡?”

    这个问题让现场陷入短暂的沉思。

    片刻后,负责海军作战模拟的钱主任提出新思路:“或许可以开发‘伦理沙盒’。

    在训练阶段,让AI接触海量不同场景的伦理困境,通过强化学习建立多维度的决策模型。

    同时,定期由军事伦理委员会对算法进行价值校准,就像给机器安装‘道德补丁’。”

    “但‘道德补丁’的更新速度能否跟上战场变化?”

    孙教授依然持怀疑态度,说道:“去年某国利用AI深度伪造技术制造虚假情报,导致国际冲突升级。

    当敌方刻意制造伦理陷阱时,我们的AI系统能否识破伪装?”
    第(2/3)页