ChatGPT aurait guidé le tireur avant l'attaque
Selon les éléments recueillis par les enquêteurs, le robot conversationnel aurait formulé des suggestions précises sur l'arme et les munitions à utiliser, ainsi que sur le moment et les endroits les plus propices pour toucher le plus grand nombre de personnes. James Uthmeier a été sans détours lors de sa conférence de presse : « Si cette chose de l'autre côté de l'écran était une personne, nous l'inculperions pour homicide. »
Ce fait divers hors du commun relance le débat sur la responsabilité des plateformes d'intelligence artificielle dans des actes violents. Il fait écho à d'autres affaires criminelles récentes où la technologie joue un rôle central, comme cet attentat déjoué à Paris où des suspects avaient été recrutés via Snapchat.
OpenAI se défend, le procès prévu en octobre
Face aux accusations, OpenAI a rapidement réagi en niant toute responsabilité directe. La société a affirmé que « ChatGPT n'est pas responsable de ce crime affreux » et que l'interface s'était contentée de produire des « réponses factuelles » aux demandes de l'étudiant.
OpenAI a également précisé avoir transmis spontanément des données concernant Phoenix Ikner aux autorités, dès qu'il a été informé de l'attaque. L'entreprise met en avant ses efforts continus pour renforcer ses garde-fous, notamment pour « détecter une intention dangereuse » et « répondre de manière appropriée en cas de risque pour la sécurité » des utilisateurs.
Le procès de Phoenix Ikner doit débuter en octobre. L'enquête ouverte par le procureur Uthmeier vise à déterminer dans quelle mesure la plateforme a manqué à ses obligations de sécurité. On peut faire un parallèle avec d'autres enquêtes récentes liées à des faits divers où les circonstances sont scrutées à la loupe, comme dans l'affaire de Reims où un homme a été tué lors d'une dispute, menant à la mise en examen d'un suspect de 18 ans.
Une question de responsabilité pour l'IA
Cette enquête soulève une question inédite dans le droit américain : jusqu'où une intelligence artificielle peut-elle être tenue responsable des actes qu'elle aurait facilités ? Le procureur de Floride semble déterminé à y répondre.
OpenAI, déjà sous pression réglementaire dans plusieurs pays, doit désormais faire face à une procédure pénale. L'issue de cette enquête pourrait établir un précédent majeur pour l'ensemble du secteur de l'IA générative, alors que les gouvernements peinent encore à encadrer ces technologies. Le cas Phoenix Ikner est désormais au cœur d'un débat qui dépasse largement les frontières de la Floride.