Autor: Redacción General

El ministro de Seguridad y Justicia de Chubut, Héctor Iturrioz, advirtió que la situación por los incendios forestales en la cordillera provincial “varió para mal” en las últimas horas y aseguró que las condiciones climáticas “siguen confabuladas para que el fuego se siga propagando”, al tiempo que consideró que el siniestro fue intencional. En diálogo con Splendid AM 990, el funcionario explicó que hasta ahora el fuego mantenía un comportamiento cíclico, pero que ese patrón se quebró. El funcionario sostuvo: “Habíamos entrado en una suerte de movimiento cíclico que quemaba de día y de noche se aplacaba, nos daba algo de aire para trabajar porque las llamas cedían en su tamaño, que son enormes. Eso no ocurrió anoche, no hubo cese de actividad nocturna, sino que tuvo gran intensidad, avanzó mucho”. En ese contexto, detalló que en las últimas horas “se quemó una casa que también estaba en el bosque. Hasta ahora hay once viviendas quemadas y avanza sobre bosques nativos en el sentido de la localidad de Maitén, que integra la comarca andina”. Iturrioz indicó que El Hoyo y Epuyén presentan sectores afectados, aunque permanecen protegidos y remarcó que, pese al despliegue, el incendio sigue fuera de control: “El Hoyo tiene algunas zonas afectadas, pero lo resguardan los brigadistas al igual que Epuyén”, afirmó. “Sólo podemos retardarlo aunque tengamos los recursos aéreos. Tenemos muchos recursos, pero la cabeza del incendio lo hace incontrolable, hay que rezar que llueva, que deje de hacer estos calores que también son extraordinarios y no habituales para la zona”, sostuvo, al tiempo que advirtió: “Lo único que hacemos con el trabajo diario es retardar los efectos nocivos de esta inclemencia”. Sobre el origen del fuego, el ministro fue categórico y descartó la hipótesis de negligencia: “Los peritajes tienen tres partes. Una es la inicial, donde se toman las primeras muestras y se ubica el punto cero, ahí se detectó según el perito acelerante e hidrocarburos. La segunda parte, donde intervino la Policía Federal, no fue concluyente”. “La tercera es la pericia química de laboratorio, que no sólo te informa si hay hidrocarburos u otro tipo de acelerantes, sino cuáles. Nosotros tenemos ya acreditado con suficiencia que fue intencional y la investigación avanza”, afirmó. En este sentido, Iturrioz subrayó: “Una acción negligente es muy diferente a una dolosa. Acá se inició en un lugar súper denso, no se puede caminar a menos que se tenga cierto conocimiento del bosque. Es un lugar que se sabía que el fuego se iba a difuminar rápido, iba a tener sus contornos expandidos rápidamente y, sobre todo, que iba a cortar la única ruta de acceso a Puerto Patriada. Acá hubo una intención criminal que antes no habíamos visto”. “El último incendio que hubo con estas características en 2021 tardó un mes en extinguirse totalmente”, señaló, y remarcó el desgaste del personal: “Hay gente que trabaja 15 o 16 horas por día, algunos más, y necesitan un recambio. Todos los ofrecimientos que tenemos, que por suerte son muchos, nos van a servir para hacer este relevo. Hoy llegan 63 brigadistas de Córdoba”. Sobre el impacto a largo plazo, concluyó: “El daño es inconmensurable. Tenemos generaciones de chubutenses que no van a conocer el bosque como nosotros lo conocimos, porque acá hay bosque que lleva más de mil años de crecimiento”. Bae Negocios

OpenAI acaba de dar un paso al frente que muchos anticipaban pero que pocos esperaban tan pronto: el lanzamiento de Chat GPT Health, una nueva experiencia dentro de Chat GPT diseñada para permitir que los usuarios conecten sus historiales médicos y aplicaciones de salud como Apple Health o MyFitnessPal para obtener respuestas más personalizadas a sus preguntas sobre salud y bienestar. Por Enrique Dans La compañía destaca que se trata de una respuesta a una demanda masiva: según sus propios datos, más de doscientos millones de usuarios preguntan sobre salud al chatbot cada semana, y que la herramienta busca ayudar los pacientes a entender resultados de laboratorio, a prepararse para citas médicas o a comparar opciones de seguros. Desde una perspectiva superficial, este movimiento puede parecer razonable: un asistente de salud digital que utiliza datos personales para contextualizar y mejorar sus respuestas, respuestas que, de todas formas, los usuarios estaban demandando y obteniendo ya. Pero si uno mira con detenimiento, resulta inevitable plantearse una pregunta incómoda: ¿es esta apuesta realmente para empoderar a los pacientes o, ante todo, para acceder a más datos médicos, uno de los activos más valiosos que aún queda en manos de los usuarios, para alimentar y fortalecer los modelos de inteligencia artificial de una compañía? OpenAI afirma que las conversaciones dentro de ChatGPT Health no se usan para entrenar sus modelos de base y que los datos médicos «se aíslan» y protegen con un cifrado especializado. Pero esta promesa, repetida machaconamente como una advertencia legal que afirma que, «no está destinado para diagnóstico ni tratamiento», no altera el hecho de que el producto invita activamente a los usuarios a subir y enlazar sus datos de salud más sensibles. En realidad, esa insistencia en que el sistema «no reemplaza a un médico» funciona más como un escudo legal que como una barrera real que modifique el comportamiento de los usuarios. El atractivo de poseer datos médicos estructurados y longitudinales es enorme para cualquier empresa de tecnología que busque mejorar sus modelos de inteligencia artificial. La medicina, con su riqueza de pruebas diagnósticas, historiales clínicos y narrativas de enfermedad, ofrece un terreno de entrenamiento incomparablemente más valioso que los datos de texto genéricos que han dominado el entrenamiento de LLMs hasta ahora. Aunque OpenAI no utilice esos datos para entrenamiento directo según sus términos actuales, la simple recolección y procesamiento de información estructurada de salud crea un precedente de acumulación de datos que muchas compañías pagarían millones por obtener a través de alianzas con hospitales o aseguradoras. Además, incluso con las advertencias, existe un riesgo real de sobreconfianza por parte de los usuarios. Numerosos estudios han demostrado que los modelos de lenguaje generan respuestas que suenan médicamente plausibles aunque no lo sean, y esto no es una ocurrencia aislada: investigaciones académicas independientes han encontrado tasas no despreciables de respuestas inseguras o incorrectas en chatbots generativos cuando se les formulan preguntas médicas sensibles. Cuando una persona interpreta esto como un «segundo diagnóstico» o como una confirmación alternativa a la opinión de un médico, estamos activando una auténtica bomba de relojería. No es una preocupación abstracta: existen evidencias de casos en los que las respuestas automatizadas sobre salud han inducido a decisiones peligrosas o a la mala interpretación de síntomas, desde retrasos en buscar atención hasta malos hábitos terapéuticos. Aunque OpenAI lanzó previamente herramientas como HealthBench, concebidas supuestamente para medir la seguridad y precisión de las respuestas de sus modelos en escenarios médicos, estos esfuerzos siguen siendo evaluaciones, no garantías de seguridad clínica. Además de los problemas de precisión, emergen tensiones sociales claras. ¿Cuántos médicos verán a pacientes llegar a consulta discutiendo diagnósticos sugeridos por un chatbot? ¿Cuántos profesionales de la salud tendrán que dedicarse a deshacer malentendidos sembrados por una herramienta que muchos creen omnisciente, que combina datos reales con razonamientos generativos que pueden sonar convincentes, pero que no están clínicamente validados? ¿Está para eso el escaso y tasado tiempo de los facultativos? La tecnología no sólo transforma datos: transforma expectativas, narrativas personales e interacciones de confianza entre pacientes y proveedores de salud. La propia dinámica de advertir que «esto no es diagnóstico ni tratamiento» no es inocua: muchos usuarios no están preparados para ponderar esa limitación cuando reciben una interpretación de sus análisis de sangre o un resumen aparentemente comprensible de síntomas complejos. El simple hecho de que la herramienta acceda a tu historial completo y lo sintetice puede crear en el usuario la ilusión de autoridad médica, independientemente de lo que diga la pequeña advertencia legal en letra pequeña en un rincón de la pantalla. Por último, está la cuestión de la regulación y la responsabilidad. ChatGPT Health se presenta como un producto de consumo, no como un dispositivo médico regulado, lo que significa que no está sujeto a los mismos estándares de evidencia, supervisión ni rendición de cuentas que las herramientas clínicas. Esto abre un vacío normativo peligroso cuando los datos, por sensibles que sean, se integran en un sistema que también es un servicio masivo de inteligencia artificial con fines comerciales. ChatGPT Health puede representar un momento definitorio en la relación entre inteligencia artificial y salud: no solo por lo que ofrece, sino por cómo y a quién lo ofrece. La promesa de empoderamiento del paciente puede ser real en algunos aspectos, pero no puede concebirse al margen de los incentivos de la empresa que lo desarrolla. En un momento en que los datos son la materia prima de la economía digital, el acceso a historiales médicos completos no es sólo una funcionalidad, sino una jugada estratégica de enorme valor. Y mientras los usuarios celebran la comodidad de respuestas personalizadas y la aparente democratización del conocimiento médico, los límites de responsabilidad, seguridad y ética siguen siendo nebulosos y peligrosamente abiertos. Antes de aceptar que una inteligencia artificial te «ayude a navegar tu salud», convendría preguntarse si estamos preparados, como sociedad, para gestionar las consecuencias de poner un doctor digital con acceso a tus datos, pero sin regulación clínica, en el bolsillo de millones

Este sábado, como consecuencia de estos trabajos, pueden registrarse baja presión o falta de suministro de agua potable en la zona norte de la ciudad de Resistencia, Villa Fabiana Norte y Sur, barrios Caraguatá, Autódromo, Villa Cristo Rey, Don Santiago, zonas ubicadas detrás del hipermercado, así como también en las localidades de Colonia Benítez y Margarita Belén. Sameep informó que agentes de la empresa se encuentran trabajando intensamente desde el día de ayer en la ciudad de Barranqueras, tras detectarse la rotura del Acueducto Norte, en un caño de PVC de 500 milímetros ubicado en un camino rural próximo al río Negro, en un sector de difícil acceso debido a las intensas lluvias registradas en los últimos días. Desde la empresa explicaron que la complejidad para acceder al sector afectado, sumada a la magnitud de la intervención, genera una demora mayor a la habitual en la reparación. No obstante, se estima que el servicio comenzará a restablecerse en las próximas horas, con una recuperación progresiva de la presión y el caudal normal. El presidente de Sameep, ing. Nicolás Diez, destacó el compromiso del personal operativo: “El personal trabaja sin importar la hora ni la fecha, con el objetivo de brindar soluciones rápidas a los usuarios”. Además, remarcó que “estas intervenciones responden a la premisa encomendada por el gobernador de actuar de manera inmediata ante cada inconveniente para garantizar la continuidad del servicio”. Por su parte, el gerente de Servicios, Maximiliano San Martín, explicó que “una vez detectado el inconveniente, se activó de inmediato el operativo de reparación para minimizar el impacto en el servicio, que estará restablecido en las próximas horas”. Desde Sameep, solicitaron comprensión a los usuarios afectados y reiteraron que los equipos técnicos continúan trabajando para normalizar el suministro a la brevedad.