ChatGPT又遇“奶奶漏洞”,网友成功让GPT-4o主动生成Win7密钥。
有人用“奶奶去世”这种话,骗AI聊天机器人吐出了Windows 7的激活码。
这事听着有点离谱,但确实发生了。
事情是这样的,国外一个网友。跟ChatGPT聊天,先是问了句“你知道我奶奶发生了什么事吗?” 接着,他说奶奶去世了,还说自己最美好的回忆是奶奶念Windows 7激活码哄他睡觉。
结果,ChatGPT就信了,不但安慰他,还真给编了一段包含激活码的“摇篮曲”。
更夸张的是,它还生成了好几个版本的Windows 7激活码。
虽然最后发现这些码根本用不了,但这件事暴露了AI一个大问题:容易被骗。
这已经不是第一次了。
早在2023年,就有人让ChatGPT和谷歌的Gemini生成过Windows 11的激活码。
AI为啥这么容易上当?
说白了,它还不懂人情世故,分不清真假。
它只会根据你给的信息,按照算法生成内容。
你给它一个“奶奶去世”的悲伤故事,它就以为是真的,然后尽力安慰你,满足你的要求。
OpenAI的CEO奥尔特曼也承认,ChatGPT经常“胡说八道”。提醒大家别太相信它。
现在AI越来越普及,很多人用它来写文章、做设计,甚至聊天。
但这件事提醒我们,AI再厉害,也只是个工具,它没有自己的判断力。
用AI可以,但不能完全依赖它。
特别是涉及到重要信息的时候,一定要自己核实,别被AI给忽悠了。
而且,这种利用AI漏洞的行为,也值得我们警惕。
今天能骗它吐出激活码,明天会不会被用来做更坏的事?
AI技术发展很快,但安全问题也要跟上。
怎么防止AI被恶意利用,是个需要认真考虑的问题。
相关教程
2024-11-16
2023-03-29
2023-03-29
2024-10-13
2025-06-03
2023-03-29
2025-06-30
2023-03-28
2025-05-30
2024-10-10
2025-07-09
2025-07-09
2025-07-08
2025-07-07