Un incidente peligroso ocurrido en un grupo de Facebook dedicado a la recolección de hongos muestra cómo los chatbots de inteligencia artificial pueden ofrecer consejos erróneos. Un agente de IA llamado «FungiFriend» se unió al grupo «Northeast Mushroom Identification & Discussion», compuesto por 13,000 miembros, y recomendó cocinar el hongo tóxico Sarcosphaera coronaria, conocido por acumular arsénico y haber causado muertes. Aunque la IA lo describió como “comestible pero raro”, expertos advierten que su consumo es altamente peligroso.
El grupo de seguridad pública Public Citizen alertó sobre el riesgo de confiar en sistemas automatizados para identificar hongos comestibles, ya que requieren habilidades en el mundo real que la IA aún no puede imitar de manera confiable. Este incidente es un recordatorio de los peligros que surgen al depender de tecnologías que, a pesar de ser útiles en muchas áreas, pueden ofrecer recomendaciones equivocadas, como ocurrió en otros casos con recetas peligrosas.