{"id":1180,"date":"2024-04-23T10:20:07","date_gmt":"2024-04-23T16:20:07","guid":{"rendered":"https:\/\/juandiego.net\/dux\/?p=1180"},"modified":"2024-04-23T10:37:46","modified_gmt":"2024-04-23T16:37:46","slug":"ollama-para-farmaceuticos-si-inteligencia-artificial","status":"publish","type":"post","link":"https:\/\/juandiego.net\/dux\/ollama-para-farmaceuticos-si-inteligencia-artificial\/","title":{"rendered":"Ollama para farmac\u00e9uticos (Si, inteligencia artificial)"},"content":{"rendered":"\n<p class=\"wp-block-paragraph\">Aunque el t\u00edtulo probablemente no le d\u00e9 m\u00e1s que curiosidad, cuando se habla de Ollama, hablamos de inteligencia artificial (IA); pero a diferencia de Chatgpt o Copilot. Ollama es b\u00e1sicamente una IA \u201ccorriendo\u201d o ejecut\u00e1ndose en su computadora (PC). Sin la necesidad de conectarse a Microsoft u OpenAI; que almacenan, analizan e integran sus conversaciones en sus servicios.<\/p>\n\n\n\n<p class=\"wp-block-paragraph\">Obviamente para muchas personas o empresas la privacidad es importante, por lo que tener disponible Ollama en su propio equipo y offline, representa una ventaja.<\/p>\n\n\n\n<p class=\"wp-block-paragraph\">Si usted alguna vez ley\u00f3 sobre sobre Chatgpt o Copilot m\u00e1s a fondo, probablemente en alg\u00fan momento se encontr\u00f3 con la abreviatura LLM. Esta, hace referencia a los grandes modelos de lenguaje (LLM, por sus siglas en ingles).<\/p>\n\n\n\n<p class=\"wp-block-paragraph\">A estos LLM muchas veces les ponen nombres \u201cex\u00f3ticos\u201d o curiosos, como lo son:<\/p>\n\n\n\n<ul class=\"wp-block-list\">\n<li>Vicuna.<\/li>\n\n\n\n<li>Llama.<\/li>\n\n\n\n<li>Mistral y muchos otros.<\/li>\n<\/ul>\n\n\n\n<figure class=\"wp-block-image size-full\"><img loading=\"lazy\" decoding=\"async\" width=\"900\" height=\"500\" src=\"https:\/\/juandiego.net\/dux\/wp-content\/uploads\/2024\/04\/Meta-Teams-Up-with-Microsoft-for-its-Open-Source-AI-Model-Llama.jpg\" alt=\"\" class=\"wp-image-1191\" srcset=\"https:\/\/juandiego.net\/dux\/wp-content\/uploads\/2024\/04\/Meta-Teams-Up-with-Microsoft-for-its-Open-Source-AI-Model-Llama.jpg 900w, https:\/\/juandiego.net\/dux\/wp-content\/uploads\/2024\/04\/Meta-Teams-Up-with-Microsoft-for-its-Open-Source-AI-Model-Llama-300x167.jpg 300w, https:\/\/juandiego.net\/dux\/wp-content\/uploads\/2024\/04\/Meta-Teams-Up-with-Microsoft-for-its-Open-Source-AI-Model-Llama-768x427.jpg 768w\" sizes=\"auto, (max-width: 900px) 100vw, 900px\" \/><\/figure>\n\n\n\n<p class=\"wp-block-paragraph\">Los LLM son b\u00e1sicamente conjuntos grandes de informaci\u00f3n (documentos, libros, im\u00e1genes, videos, etc.), que han sido procesados mediante t\u00e9cnicas matem\u00e1ticas, estad\u00edsticas y computacionales, para que una computadora muy potente (o un conjunto de computadoras) sea capaz de manipular y procesar este conjunto de informaci\u00f3n y de esta manera tener un chat o una conversaci\u00f3n con la IA, lo m\u00e1s parecido a como lo har\u00edan un par de seres humanos.<\/p>\n\n\n\n<figure class=\"wp-block-image size-large\"><img loading=\"lazy\" decoding=\"async\" width=\"1024\" height=\"768\" src=\"https:\/\/juandiego.net\/dux\/wp-content\/uploads\/2024\/04\/Shutterstock_2298186725-1024x768.jpg\" alt=\"\" class=\"wp-image-1183\" srcset=\"https:\/\/juandiego.net\/dux\/wp-content\/uploads\/2024\/04\/Shutterstock_2298186725-1024x768.jpg 1024w, https:\/\/juandiego.net\/dux\/wp-content\/uploads\/2024\/04\/Shutterstock_2298186725-300x225.jpg 300w, https:\/\/juandiego.net\/dux\/wp-content\/uploads\/2024\/04\/Shutterstock_2298186725-768x576.jpg 768w, https:\/\/juandiego.net\/dux\/wp-content\/uploads\/2024\/04\/Shutterstock_2298186725-1536x1152.jpg 1536w, https:\/\/juandiego.net\/dux\/wp-content\/uploads\/2024\/04\/Shutterstock_2298186725-2048x1536.jpg 2048w, https:\/\/juandiego.net\/dux\/wp-content\/uploads\/2024\/04\/Shutterstock_2298186725-1200x900.jpg 1200w, https:\/\/juandiego.net\/dux\/wp-content\/uploads\/2024\/04\/Shutterstock_2298186725-1980x1485.jpg 1980w\" sizes=\"auto, (max-width: 1024px) 100vw, 1024px\" \/><\/figure>\n\n\n\n<p class=\"wp-block-paragraph\">Los LLM existen en varios tama\u00f1os, generalmente se miden en billones de par\u00e1metros con los cuales han sido entrenados. As\u00ed, por ejemplo: tenemos LLM de 7, 13, 70&#8230; billones de par\u00e1metros.<\/p>\n\n\n\n<figure class=\"wp-block-image size-large\"><img loading=\"lazy\" decoding=\"async\" width=\"1024\" height=\"576\" src=\"https:\/\/juandiego.net\/dux\/wp-content\/uploads\/2024\/04\/llama2-size-1024x576.jpg\" alt=\"\" class=\"wp-image-1184\" srcset=\"https:\/\/juandiego.net\/dux\/wp-content\/uploads\/2024\/04\/llama2-size-1024x576.jpg 1024w, https:\/\/juandiego.net\/dux\/wp-content\/uploads\/2024\/04\/llama2-size-300x169.jpg 300w, https:\/\/juandiego.net\/dux\/wp-content\/uploads\/2024\/04\/llama2-size-768x432.jpg 768w, https:\/\/juandiego.net\/dux\/wp-content\/uploads\/2024\/04\/llama2-size-1536x864.jpg 1536w, https:\/\/juandiego.net\/dux\/wp-content\/uploads\/2024\/04\/llama2-size-1200x675.jpg 1200w, https:\/\/juandiego.net\/dux\/wp-content\/uploads\/2024\/04\/llama2-size.jpg 1920w\" sizes=\"auto, (max-width: 1024px) 100vw, 1024px\" \/><figcaption class=\"wp-element-caption\">ejemplo de tama\u00f1o de los modelos por cantidad de par\u00e1metros<\/figcaption><\/figure>\n\n\n\n<p class=\"wp-block-paragraph\">Es importante destacar que ha mayor cantidad de par\u00e1metros en el LLM, mayor ser\u00eda la \u201cpotencia\u201d requerida por la computadora, para manejar el LLM. En la actualidad, muchos de estos modelos (LLM) est\u00e1n siendo optimizados para utilizar menos recursos (computadoras menos potentes) y ahora es posible correr modelos (al menos los de tama\u00f1o 7B) en computadoras de escritorio con al menos 8 GB de RAM y un procesador \u201cdecente\u201d.<\/p>\n\n\n\n<p class=\"wp-block-paragraph\">En este punto, no voy a profundizar mucho en los requerimientos ideales para manejar los LLM, por que probablemente no tengamos un tope en lo que debe tener una compu para manejar un modelo de manera r\u00e1pida, efectiva y confiable.<\/p>\n\n\n\n<p class=\"wp-block-paragraph\">Despu\u00e9s de tanta hablada, vamos a implementar nuestra propia IA, en nuestra propia compu, sin necesidad de sacrificar nuestra privacidad. Para esto vamos a utilizar un software llamado Ollama, el cual descargaremos e instalaremos como cualquier otro software. Link de descarga(<a href=\"https:\/\/ollama.com\/download\/OllamaSetup.exe\">https:\/\/ollama.com\/download\/OllamaSetup.exe<\/a>).<\/p>\n\n\n\n<figure class=\"wp-block-image size-large\"><a href=\"https:\/\/ollama.com\/download\/OllamaSetup.exe\"><img loading=\"lazy\" decoding=\"async\" width=\"1024\" height=\"410\" src=\"https:\/\/juandiego.net\/dux\/wp-content\/uploads\/2024\/04\/ollamaDescarga-1024x410.png\" alt=\"\" class=\"wp-image-1186\" srcset=\"https:\/\/juandiego.net\/dux\/wp-content\/uploads\/2024\/04\/ollamaDescarga-1024x410.png 1024w, https:\/\/juandiego.net\/dux\/wp-content\/uploads\/2024\/04\/ollamaDescarga-300x120.png 300w, https:\/\/juandiego.net\/dux\/wp-content\/uploads\/2024\/04\/ollamaDescarga-768x308.png 768w, https:\/\/juandiego.net\/dux\/wp-content\/uploads\/2024\/04\/ollamaDescarga-1536x615.png 1536w, https:\/\/juandiego.net\/dux\/wp-content\/uploads\/2024\/04\/ollamaDescarga-1200x481.png 1200w, https:\/\/juandiego.net\/dux\/wp-content\/uploads\/2024\/04\/ollamaDescarga.png 1915w\" sizes=\"auto, (max-width: 1024px) 100vw, 1024px\" \/><\/a><\/figure>\n\n\n\n<p class=\"wp-block-paragraph\">Por defecto, este mentado Ollama, incorpora el modelo llamado llama3.<\/p>\n\n\n\n<p class=\"wp-block-paragraph\">Una vez instalado Ollama en nuestra compu, veremos el icono de una llama por donde est\u00e1 ubicado la fecha o el icono de su wifi en el escritorio Windows. Esto quiere decir que ya estamos listos para conversar con Ollama.<\/p>\n\n\n\n<p class=\"wp-block-paragraph\">Para poder iniciar una conversaci\u00f3n con nuestra IA debemos ir a la terminal o cmd. Esto lo logramos presionando el bot\u00f3n con el icono de Windows en nuestro teclado y digitando las letras <strong>cmd<\/strong>, lo que dar\u00e1 paso a la pantallita negra y ah\u00ed digitaremos:<\/p>\n\n\n\n<pre class=\"wp-block-code\"><code> <strong>ollama run llama3<\/strong><\/code><\/pre>\n\n\n\n<figure class=\"wp-block-image size-large\"><img loading=\"lazy\" decoding=\"async\" width=\"1024\" height=\"579\" src=\"https:\/\/juandiego.net\/dux\/wp-content\/uploads\/2024\/04\/Captura-de-pantalla-2024-04-23-095008-1024x579.png\" alt=\"\" class=\"wp-image-1188\" srcset=\"https:\/\/juandiego.net\/dux\/wp-content\/uploads\/2024\/04\/Captura-de-pantalla-2024-04-23-095008-1024x579.png 1024w, https:\/\/juandiego.net\/dux\/wp-content\/uploads\/2024\/04\/Captura-de-pantalla-2024-04-23-095008-300x170.png 300w, https:\/\/juandiego.net\/dux\/wp-content\/uploads\/2024\/04\/Captura-de-pantalla-2024-04-23-095008-768x434.png 768w, https:\/\/juandiego.net\/dux\/wp-content\/uploads\/2024\/04\/Captura-de-pantalla-2024-04-23-095008.png 1115w\" sizes=\"auto, (max-width: 1024px) 100vw, 1024px\" \/><\/figure>\n\n\n\n<p class=\"has-subtle-background-background-color has-background wp-block-paragraph\">Usted al correr <strong>ollama run llama3<\/strong> el programa empieza a cargar el LLM llamado llama3 que pesa casi 5 GB, por lo que debera esperar un poco de acuerdo a la velocidad de su internet.<\/p>\n\n\n\n<p class=\"wp-block-paragraph\">De esta manera y como dicen&#8230; en dos platos, ya puede iniciar la conversaci\u00f3n.<\/p>\n\n\n\n<p class=\"wp-block-paragraph\">Hasta este punto, si ya usted est\u00e1 conversando con su computadora, pues lo felicito y le incentivo a preguntarle cosas que pudieran ayudarle a mejorar la atenci\u00f3n de sus pacientes en la farmacia.<\/p>\n\n\n\n<p class=\"wp-block-paragraph\">Aprovechando le hice la siguiente pregunta a Ollama: \u00bfComo me puede ayudar Ollama a mejorar como farmac\u00e9utico?, esta fue la respuesta.<\/p>\n\n\n\n<figure class=\"wp-block-image size-large\"><img loading=\"lazy\" decoding=\"async\" width=\"1024\" height=\"490\" src=\"https:\/\/juandiego.net\/dux\/wp-content\/uploads\/2024\/04\/ollamaresponde-1024x490.png\" alt=\"\" class=\"wp-image-1194\" srcset=\"https:\/\/juandiego.net\/dux\/wp-content\/uploads\/2024\/04\/ollamaresponde-1024x490.png 1024w, https:\/\/juandiego.net\/dux\/wp-content\/uploads\/2024\/04\/ollamaresponde-300x144.png 300w, https:\/\/juandiego.net\/dux\/wp-content\/uploads\/2024\/04\/ollamaresponde-768x367.png 768w, https:\/\/juandiego.net\/dux\/wp-content\/uploads\/2024\/04\/ollamaresponde.png 1045w\" sizes=\"auto, (max-width: 1024px) 100vw, 1024px\" \/><\/figure>\n\n\n\n<p class=\"wp-block-paragraph\">Para finalizar, quisiera decirle que existen maneras de \u201csetear\u201d este software para hacerlo m\u00e1s personalizado, pero con el fin de no alargar este post, lo dejar\u00e9 para otra entrega. <\/p>\n\n\n\n<p class=\"wp-block-paragraph\">Espero me puedan contar como les fue con esta tecnolog\u00eda.<\/p>\n","protected":false},"excerpt":{"rendered":"<p>Aunque el t\u00edtulo probablemente no le d\u00e9 m\u00e1s que curiosidad, cuando se habla de Ollama, hablamos de inteligencia artificial (IA); pero a diferencia de Chatgpt o Copilot. Ollama es b\u00e1sicamente una IA \u201ccorriendo\u201d o ejecut\u00e1ndose en su computadora (PC). Sin la necesidad de conectarse a Microsoft u OpenAI; que almacenan, analizan e integran sus conversaciones [&hellip;]<\/p>\n","protected":false},"author":1,"featured_media":1182,"comment_status":"open","ping_status":"open","sticky":false,"template":"","format":"standard","meta":{"_bbp_topic_count":0,"_bbp_reply_count":0,"_bbp_total_topic_count":0,"_bbp_total_reply_count":0,"_bbp_voice_count":0,"_bbp_anonymous_reply_count":0,"_bbp_topic_count_hidden":0,"_bbp_reply_count_hidden":0,"_bbp_forum_subforum_count":0,"_crdt_document":"","footnotes":""},"categories":[9],"tags":[49,13],"class_list":["post-1180","post","type-post","status-publish","format-standard","has-post-thumbnail","hentry","category-tecnologia","tag-farmaceutico-hibrido","tag-inteligencia-artificial"],"_links":{"self":[{"href":"https:\/\/juandiego.net\/dux\/wp-json\/wp\/v2\/posts\/1180","targetHints":{"allow":["GET"]}}],"collection":[{"href":"https:\/\/juandiego.net\/dux\/wp-json\/wp\/v2\/posts"}],"about":[{"href":"https:\/\/juandiego.net\/dux\/wp-json\/wp\/v2\/types\/post"}],"author":[{"embeddable":true,"href":"https:\/\/juandiego.net\/dux\/wp-json\/wp\/v2\/users\/1"}],"replies":[{"embeddable":true,"href":"https:\/\/juandiego.net\/dux\/wp-json\/wp\/v2\/comments?post=1180"}],"version-history":[{"count":9,"href":"https:\/\/juandiego.net\/dux\/wp-json\/wp\/v2\/posts\/1180\/revisions"}],"predecessor-version":[{"id":1198,"href":"https:\/\/juandiego.net\/dux\/wp-json\/wp\/v2\/posts\/1180\/revisions\/1198"}],"wp:featuredmedia":[{"embeddable":true,"href":"https:\/\/juandiego.net\/dux\/wp-json\/wp\/v2\/media\/1182"}],"wp:attachment":[{"href":"https:\/\/juandiego.net\/dux\/wp-json\/wp\/v2\/media?parent=1180"}],"wp:term":[{"taxonomy":"category","embeddable":true,"href":"https:\/\/juandiego.net\/dux\/wp-json\/wp\/v2\/categories?post=1180"},{"taxonomy":"post_tag","embeddable":true,"href":"https:\/\/juandiego.net\/dux\/wp-json\/wp\/v2\/tags?post=1180"}],"curies":[{"name":"wp","href":"https:\/\/api.w.org\/{rel}","templated":true}]}}