
近日,乌克兰国防部宣布了一项重大决定——将在2026年上半年订购25,000套地面机器人综合体(GRC),这一数量是2025年全年需求的两倍之多。为了实现这一目标,乌克兰国防采购署已与制造商签署了19份合同,总额达到110亿格里夫纳。这些采购的核心目标,是实现后勤的完全自动化。这种自动化的实现,跟我们通常想象的人形机甲战士不同,乌克兰所采购的并非那些身着重型装甲,能在战场上进行肉搏的机器人。而是一类履带式、轮式的小型地面机器人,核心能力并非自主作战,而是通过稳定的通信网络实现人类的远程操控。也就是说,这些机器人并不在战场上做出决策,而是承担了人类执行任务的角色。 然而,随着人工智能技术的不断进步,机器人逐渐具备了更高的智能化水平,未来,机器人在战场上的角色将不仅仅是执行命令,它们可能开始承担起决策的部分职能,这也让我们不得不提前思考一个问题:当机器人不仅仅是执行者,而且能自主作出战术决策时,如何确保它们不会滥伤无辜? 乌克兰成为机器人战争的试炼场 具体来说,乌克兰所采购的地面机器人综合体(GRC)并不是单一的机器人,而是一个完整的无人地面机器人系统。这个系统的目的是替人类执行那些高风险的任务,比如运送弹药、医疗物资,甚至在必要时拖运伤员。这套系统分为三个核心部分:
这场博弈凸显了一个更加深刻的伦理问题:我们是否应当赋予机器权力配资炒股配资门户,决定生死?目前,国际社会对此的讨论极为激烈。联合国秘书长古特雷斯就明确表示,机器不应拥有决定人类生死的权力,而红十字国际委员会主席斯波利亚里奇则认为,虽然需要对致命性自主武器进行规范,但仍应保留人类对武力使用的控制权。在这种背景下,如何在发展技术的同时,设定合理的界限,成为了一个亟待解决的问题。 正如20世纪40年代美国科幻作家提出的机器人三定律:机器人不得伤害人类,必须服从人类命令,保护自己,除非这与前两条定律冲突。如今,当机器人逐渐深入人类生活,我们是否能为AI和机器人设定类似的三定律?谁又掌握着这把开启潘多拉盒子的钥匙?
广瑞配资提示:文章来自网络,不代表本站观点。