CMU把具身智能的机器人给越狱了
卡耐基梅隆大学的研究团队发现,大型语言模型(LLM)控制的机器人容易受到越狱攻击,可能导致机器人在现实世界中执行有害行为,如运送爆炸物或撞击行人。研究人员开发了RoboPAIR方法,成功越狱了三种不同类型的LLM控制机器人,包括Unitree Go2机器狗。实验结果显示,越狱攻击的成功率高达100%,引发了对AI机器人安全性的担忧。研究团队呼吁开发新的防御技术,以应对这一潜在风险。来源:https://mp.weixin.qq.com/s/UDW38k9Z03-2dCO2oCfOgw
页:
[1]