Hace un par de días estuve leyendo artículos sobre los modelos Large Language Models (LLMs) con el auge de la nueva versión de ChatGPT GPT5 y me enteré de que las conversaciones que uno tiene con GPT pueden ser interceptadas por terceros sin ningún problema. Por su puesto que esto es algo que las personas podemos suponer e intuir, pero pocos le toman el peso y transfondo de lo que esto significa una vez que tu mismo haces la prueba.
Para quienes hablan de cosas personales o sensibles con estos modelos debe ser un tema a tener en cuenta, asimismo para las empresas que estan incorporando el uso de estas tecnologías para administrar o llevar a cabo la operación de sus negocios.
Afortunadamente, existen organizaciones que entregan soluciones alternativas Open Source que entregan modelos pre-entrenados listos para ser utilizados de manera local por el usuario o la organización, lo cual asegura el interacutar de manera más segura con estas tecnologías sin que se fugue la información sensible que uno ingrese allí.
Ahora mismo estoy utilizando Ollama, y me gustaría en futuros posts compartir los resultados de desempeño que vaya logrando en relación con velocidad de respuesta y precisión.