Examinando por Materia "Inteligencia artificial"
Mostrando 1 - 20 de 27
Resultados por página
Opciones de ordenación
Publicación Acceso abierto Algoritmo de predicción de los precios del mercado de valores de la bolsa de Nueva York por medio de técnicas de inteligencia artificial implementadas en un sistema embebido(Universidad EIA, 2021) Zuluaga Suárez, Alejandro; Bonet Cruz, Isis; Méndez Mejía, SantiagoRESUMEN: Los mercados financieros se han convertido en una de las mejores oportunidades de inversión, gracias a sus altos niveles de rentabilidad. Para el mercado de valores de la Bolsa de Nueva York, impulsado por la compra y venta de acciones de las empresas que coticen allí, se han dado múltiples desarrollos que proporcionan cierto nivel de ventaja para que un inversionista pueda conocer cómo sería el comportamiento del precio de una acción en un instante futuro. Hoy en día, el 80% de las transacciones que se dan en el mercado son mediante sistemas automáticos, aumentando las ganancias a ritmos acelerados gracias a su aprendizaje constante del comportamiento del precio. Este trabajo se enfocó en la exploración de múltiples modelos de Machine Learning que permitieran pronosticar el precio de una acción, desde modelos regresivos hasta modelos por clasificación, y mediante sus métricas de desempeño se seleccionó el mejor de ellos, tomando como ejemplo la información de Disney durante el año 2020 ya que fue una empresa que se vio afectada por los cierres de sus instalaciones durante la pandemia del COVID-19, por lo tanto, el precio de su acción posee tendencias al alza y a la baja muy pronunciadas que un modelo puede aprovechar para aprender. Una vez seleccionado el modelo, fue necesario seleccionar un sistema embebido óptimo en el que se pudiera ejecutar el modelo en tiempo real, este sistema embebido se seleccionó bajo criterios de consumo energético, consumo de procesamiento y tiempos de procesamiento en diferentes instancias, con el fin de garantizar un funcionamiento óptimo en la placa al momento de conectarse en tiempo real, sin tener problemas de retrasos o bloqueos. Se obtuvo resultados muy positivos sobre un modelo de red neuronal recurrente LSTM implementado en un sistema embebido Raspberry Pi 4, realizando pronósticos al precio de la acción de Disney cada dos minutos en tiempo real y graficando los resultados en un servidor local mediante el navegador web; siendo dos minutos el tiempo mínimo sugerido para utilizar con este tipo de sistemas debido a su bajo procesamiento respecto a un computador de escritorio tradicional, sin embargo, tiempo más que suficiente para que adquiera los datos de la bolsa, pronostique y grafique sus resultadosPublicación Acceso abierto Caracterización de la enfermedad pulmonar obstructiva crónica (EPOC) a partir de imágenes de radiografías de tórax y datos clínicos(Universidad EIA, 2023) Sierra Villegas, Sebastián; Sánchez Ocampo, ManuelaRESUMEN: la creciente disponibilidad de datos y el rápido desarrollo de los métodos de análisis de datos han hecho posible las recientes aplicaciones de la inteligencia artificial y el machine learning en el área de la salud. La utilización de estos avances permite a los diferentes actores en el sector medico realizar mejor su trabajo de predicción y diagnóstico de enfermedades en los pacientes. Una de estas enfermedades es la EPOC o enfermedad pulmonar obstructiva crónica la cual es una de las enfermedades con mayor mortalidad en el mundo la cual afecta el sistema respiratorio, el cual es vital para la vida del ser humano. Para su diagnóstico existen diferentes maneras de lograr detectarla como son las imágenes médicas y exámenes como la espirometría. En el presente trabajo se analizó información de pacientes del hospital Pablo Tobón Uribe que diagnosticados con EPOC haciendo análisis de toda la información disponible del paciente en la base de datos, con el fin de extraer la información más relevante para la detección de esta patología. Al ser esta información necesaria para la detección de EPOC, el objetivo del trabajo fue desarrollar un modelo para la extracción de características y patrones relevantes en radiografías de tórax y datos clínicos de pacientes con EPOC. Este procedimiento se realizado usando la metodología CRISP-DM donde se empezó con la recolección de la información en el hospital, seguido del análisis de esta para así determinar cuáles serían las variables más indicadas para entrenar los modelos. Posteriormente, se seleccionaron los modelos que utilizarían estas variables para ser entrenados. Modelos como las redes neuronales convolucionales para la información no estructurada como son las imágenes médicas, y modelos convencionales de clasificación como KNN, Árbol de decisión, Gradient Boost, etc. para los datos estructurados, entre los que se encontraban los exámenes de función pulmonar y variables básicas del paciente. Por último, se corroboraron los resultados eligiendo los mejores modelos y comparando los algoritmos entre sí, por medio de métricas de evaluación y validación cruzada. Luego los dos mejores modelos fueron unidos para así tener un modelo final el cual pudiera predecir EPOC basándose tanto de la radiografía como de la información del paciente y los exámenes médicos. Los resultados indicaron que el modelo final es capaz de detectar EPOC en un paciente con altos niveles de precisión y estos podrían servir de base para trabajos futuros en esta área o bien para ser otra herramienta más del arsenal de una médicoPublicación Acceso abierto Desarrollo de modelos de inteligencia artificial para la detección de phishing en encabezados de correos electrónicos, construidos por grupos de amenazas persistentes avanzadas (APT)(Universidad EIA, 2024) Wagner Osorio, Miguel; Juilland Prada, Dennis Patrick; Gómez Betancur, Duván AlbertoRESUMEN: Este trabajo presenta el desarrollo de un modelo de ciberseguridad enfocado en la detección temprana de ataques de phishing, utilizando técnicas de inteligencia artificial y procesamiento de lenguaje natural. El objetivo principal es crear un sistema que identifique ataques de phishing mediante el análisis de las cabeceras de correos electrónicos, abordando una de las amenazas más frecuentes y dañinas en el ámbito digital. Este enfoque se implementa utilizando la metodología ASUM-DM de IBM, la cual guía el proceso desde la identificación del problema, la recolección de datos, hasta la construcción y evaluación del modelo. El estudio incluye una revisión exhaustiva de los ataques de phishing, su evolución y métodos de detección actuales, además de la selección y preparación de conjuntos de datos adecuados. El modelo desarrollado se entrena y valida empleando redes neuronales y otras técnicas de Machine Learning, logrando un alto nivel de precisión en la identificación de correos electrónicos maliciosos. Los resultados obtenidos demuestran la efectividad del modelo propuesto en comparación con enfoques previos, destacando su potencial para mejorar las medidas de ciberseguridad de usuarios y organizaciones.Publicación Acceso abierto Desarrollo de un sistema de soporte a la gestión de energía para microrredes utilizando herramientas de Inteligencia Artificial(Universidad EIA, 2022) Puerta Echandía, Alejandro; Hoyos Velásquez, Santiago HoracioRESUMEN: Los países se encuentran en un proceso de transición energética, donde se está intensificando el uso de las energías renovables, de manera centralizada como también distribuida, al igual que las grandes empresas, los pequeños consumidores buscan ser prosumidores[1] lo que trae consigo beneficios energéticos, económicos y ambientales. Los países buscan contribuir a la reducción de emisiones de CO2, como mecanismo de adaptación y mitigación al cambio climático, realizando un cambio de las energías no renovables[2], a energías limpias como lo es la energía solar, la cual ha tenido reducciones de precios de una manera considerable en los últimos años, estimulando así la adopción de este tipo de energías en un mercado mucho más amplio, que va desde la gran empresa hasta los hogares independientes, donde cada vez se busca reducir el consumo de la red tradicional y autogenerar su propia energía por parte de los ahora nuevos prosumidores. Adicionalmente, los mercados energéticos, requieren de una estimación de la demanda de energía por parte de los consumidores a nivel de todos los sectores, residencial, industrial y comercial, con el propósito de planificar tanto la operación como la expansión del sistema eléctrico y así garantizar el suministro en todo momento de una manera confiable y de calidad. Además, la estimación de la demanda contribuye a determinar precios de la energía para el corto y largo plazo[3] por medio de las cuales se soportan decisiones. Para lograr la satisfacción de la demanda, se requiere también conocer la generación de energía que habrá disponible en determinado momento, asunto que para la energía fotovoltáica es crucial, dada su naturaleza variable[4]. Estas estimaciones de energía proveen también las herramientas necesarias para la gestión y planeación de manejo de una red eléctrica, como lo es una microrred, la cual posee nodos que consumen y/o generan energía; Las microrredes son pequeños sistemas eléctricos que comparten energía entre sí, pero para lo cual, necesitan un sistema de gestión que les permita distribuir la energía de una manera eficiente y precisa, priorizando el consumo de la energía generada por la propia microrred. Por estas razones, en esta investigación se propone una metodología basada en herramientas de inteligencia artificial, sistemas de simulación, e interfaces de usuario, para proveer así un sistema que permita contribuir a la planeación de la gestión de energía dentro de una microrred, donde los resultados obtenidos con el mismo fueron satisfactorios, puesto que los datos entregados por el sistema, permiten realizar una planeación de distribución de energía que contribuye al cálculo de beneficios energéticos, económicos y ambientales. Ya con el contexto del porque es necesaria una aproximación diferente al problema, en este proyecto se realiza un sistema de simulación de microrredes de energía completamente configurable, donde el usuario puede diseñar una microrred completa y analizar los resultados obtenidos por la simulación, donde esta se realiza en base a un sistema de gestión de energía y un sistema de predicción que permite pronosticar el comportamiento futuro de cada nodo, para luego poder así entregar unos resultados que puedan ser analizados por el usuario y así determinar la mejor configuración para la microrred. Para este programa se realizó un estudio completo de las microrredes existentes y sus topologías, para así sintetizar un modelo acorde a lo que se busca realizar, donde se extrajeron los componentes de la red y sus funcionamientos, como también la manera de compartir información y energía entre ellos, para poder así sintetizar un modelo parametrizable de una microrred, que pueda ser aplicado a cualquier caso donde se busque diseñar y simular una microrred. Con el modelo parametrizable de la microrred, se procede a diseñar una interfaz de usuario, donde un usuario pueda configurar en detalle la microrred que se piensa simular, donde se optó por un diseño web, el cual provee portabilidad y escalabilidad a futuro. Ya con la interfaz diseñada, se procede a realizar toda la programación que conlleva la simulación de la microrred, donde se tienen algoritmos neuronales de predicción, como también los códigos de comunicación y gestión de energía; Ya con todos los componentes del programa se consolida un sistema de simulación completamente funcional, que permite al usuario analizar los resultados y realizar cambios a la configuración de la simulación. Ya con el programa probado y funcional, se realizó una síntesis del sistema eléctrico de la Universidad EIA como una microrred, donde se tiene generación almacenamiento y consumo en diferentes puntos de la misma, para desarrollar así una lista de parámetros de una microrred basada en la Universidad. Se realizó una simulación de la microrred de la Universidad EIA, utilizando datos históricos, para lograr así una validación de los resultados entregados por el programa, llegando así a la conclusión de que el programa funciona y presenta resultados válidos que permitirán a la universidad, realizar una mejor planeación y distribución de su propia microrred.Publicación Acceso abierto Detección de posibles puntos de autogeneración solar a partir de los datos de consumo eléctrico en Colombia(Universidad EIA, 2024) Patiño Pérez, Héctor Alejandro; Hoyos Velásquez, Santiago Horacio; Hoyos Velásquez, Santiago HoracioRESUMENLos países se encuentran dentro de un proceso de transición energética por medio del cual se desarrolla la electrificación de la economía y se intensifica el uso de las energías renovables a partir de fuentes convencionales y no convencionales, contribuyendo a la reducción de las emisiones de gases efecto invernadero y, por lo tanto, realizando un aporte a la mitigación del cambio climático. En particular, la utilización de energía solar fotovoltaica para la autogeneración de los hogares y las empresas se ha visto motivada por la disminución de los precios de esta tecnología, el aumento de su eficiencia técnica y la disponibilidad de incentivos tributarios generados por ley; lo que se refleja en el cierre financiero de los proyectos solares a pequeña y gran escala, en zonas urbanas, rurales o apartadas a nivel nacional e internacional. Los mercados de energía eléctrica requieren de la estimación correcta de la demanda y la generación de energía para la formación de los precios de corto y largo plazo. En este sentido, conocer la cantidad de energía proveniente de la autogeneración fotovoltaica y su impacto en la demanda es requerido para la planificación de la expansión y para la operación del sistema eléctrico de potencia, además de soportar la toma de decisiones de inversionistas en el sector. El consumo de energía de los hogares y las empresas puede ser caracterizado por su curva de carga, la cual presentaría cambios frente a su patrón de comportamiento histórico como consecuencia de la autogeneración para el autoconsumo, es por esto que, en esta investigación se presenta una metodología basada en técnicas de detección de anomalías para la caracterización de cambios atípicos en el comportamiento de la serie de tiempo del consumo de energía, con el propósito de identificar sistemas solares fotovoltaicos de autogeneración en grandes usuarios de energía en Colombia. La metodología desarrollada se basa en cuatro enfoques: uso de algoritmos de búsqueda exhaustiva, uso de detección de anomalías en series de tiempo mediante la biblioteca Prophet de Facebook, uso de algoritmos para detección de cambios de nivel mediante la biblioteca ADTK – ARUNDO y uso de modelos de aprendizaje profundo para el aprendizaje y detección de cambios en el comportamiento de los datos. Esta investigación se realiza en el marco de la alianza energética 2030, la cual está conformada por 11 organizaciones con el fin de realizar el desarrollo de 11 proyectos de I+D+i financiados por Colciencias. La investigación está desarrollada como parte del proyecto 1 con los datos de consumo de energía eléctrica de los usuarios de Colombia, compartidos por la empresa XM Compañía de Expertos en Mercados S.A. E.S.P. Los resultados encontrados con los dos primeros enfoques utilizados no fueron satisfactorios debido a la gran cantidad de anomalías identificadas y que no representaban el comportamiento esperado para la instalación de un sistema de autogeneración fotovoltaico; sin embargo, los resultados obtenidos bajo el proceso de validación propuesto en los dos últimos enfoques permiten afirmar la presencia de sistemas solares fotovoltaicos instalados a partir de los datos analizados.Publicación Acceso abierto Diseño de un prototipo de un correlacionador de eventos de seguridad para servidores(Universidad EIA, 2020) Restrepo Correa, Ricardo; Velasquez Saavedra, Juan Sebastian; Velasquez Munera, Juan EstebanRESUMEN: En la actualidad existen muchos servicios web, es decir, páginas y funcionalidades que se prestan a través de internet, los cuales para funcionar hacen uso de servidores web, que no son más que un computador que almacena información y se encuentra conectado a una red, en este caso internet. Los clientes de estas plataformas acceden a estos servicios realizando peticiones para obtener los recursos requeridos, dicha conexión entre el cliente y el servidor queda registrada como un evento o log, que no es más que una colección de datos de procesamiento y transmisión entre la relación antes mencionada. Así pues, un cliente puede intentar explotar alguna vulnerabilidad del servidor mediante una petición con el fin de hurtar información sensible, penetrar un inicio de sesión o hasta desconectar todo un portal. Sin embargo, dado lo anterior, su intento de ataque o su ataque en sí queda registrado como un evento o log, el cual puede contener información que dé a entender su finalidad maliciosa. En el siguiente trabajo se plantea una solución para monitorear y dar un significado a estos eventos de seguridad, con el fin de aclarecer las intenciones de los usuarios del servicio web, por medio de un correlacionador de eventos de seguridad utilizando inteligencia artificial, el cual permita, en primer instancia, exponer de manera generalizada la información almacenada en los eventos de seguridad por medio de gráficos y contenidos visuales, como también un algoritmo inteligente que clasifique un evento de seguridad como una petición normal de un cliente común o como un ataque de un cliente malicioso, en este caso exponiendo el tipo de ataque ocurrido. Para lograr el objetivo, se requirió de dos servidores, el primero, que fue expuesto a internet como servidor web mediante Apache HTTP Server con el fin de colectar eventos públicos, y el segundo, que sirvió como almacenamiento para dichos eventos utilizando una base de datos MySQL. Este último, se conectó a Power BI, donde se ilustró la información de interés con gráficos y contenidos visuales. Para el desarrollo del clasificador de eventos, se tomó un muestreo de 1000 datos por ataque y 1000 datos común y corrientes con el fin de entrenar tres modelos de inteligencia artificial y comparar sus resultados. Los tres modelos de inteligencia artificial (árbol de decisión, regresión logística y perceptrón multicapa) clasificaron exitosamente los eventos de seguridad, dando viabilidad a esta técnica para determinar peticiones maliciosas en un servidor web.Publicación Acceso abierto Diversificación de un portafolio de inversión basado diferentes medidas de riesgo(Universidad EIA, 2023) Agudelo Serna, Andrés; Valencia Villa, Juan SebastiánRESUMEN: el presente trabajo aborda la problemática de optimización de asignación de capital dentro de un portafolio de instrumentos financieros heterogéneos. Esta gestión óptima de carteras de inversión resulta un tópico crítico en finanzas corporativas, dada su incidencia en la rentabilidad y riesgo de las organizaciones. La investigación explora el potencial de técnicas de vanguardia en inteligencia artificial, específicamente la lógica difusa y los algoritmos genéticos, para la construcción de portafolios robustos mediante asignación sistémica de recursos. La metodología consiste en un estudio cuantitativo, explicativo y longitudinal. Involucra el análisis estadístico de series financieras históricas para entrenar y evaluar modelos predictivos. El alcance correlacional identifica interdependencias entre instrumentos. Se implementan dos enfoques complementarios: lógica difusa para evaluación individual de alternativas mediante reglas heurísticas, y algoritmos genéticos para búsqueda estocástica masiva en paralelo de asignaciones óptimas globales. Los resultados revelan sinergias entre ambos. La lógica difusa aporta análisis granular, manejo de incertidumbre y semántica interpretativa. Los algoritmos genéticos permiten optimización simultánea considerando interdependencias y con flexibilidad de objetivos. Se concluye que estas modernas técnicas algorítmicas de vanguardia sobresalen en la construcción de portafolios resilientes y superan limitaciones de enfoques tradicionales. Se recomienda investigación futura enfocada en despliegue de aplicaciones analíticas y validación sobre datos financieros en tiempo real. En síntesis, este trabajo ejemplifica la aplicación de algoritmos innovadores de inteligencia artificial para optimizar la gestión de portafolios de inversión corporativos, constituyendo un avance en la incorporación de técnicas de vanguardia en los procesos de decisión financiera estratégica.Publicación Acceso abierto Exploración y comparación de métodos de inteligencia artificial para la clasificación taxonómica en análisis metagenómicos(Universidad EIA, 2014) Montoya Ramírez, Widerman Stid; Bonet Cruz, IsisLa mayor diversidad genética está presente en las comunidades de microorganismos, el conocer estas especies, sus funciones y diferencias constituye un papel importante para solucionar problemas diversas áreas, como la salud, la alimentación y el medio ambiente. El método tradicional para realizar este tipo de investigaciones consiste en aislar el microorganismo de una muestra del entorno y así estudiar su constitución genética, sin embargo menos del 1% de los microorganismos pueden ser aislados y cultivados en los laboratorios. Gracias a las técnicas de secuenciación modernas cada vez más accesibles surge la metagenómica proponiendo una alternativa para poder estudiar el otro 99%. La metagenómica se encarga de estudiar la secuenciación de una muestra del entorno para descubrir a qué organismos pertenecen los fragmentos secuenciados. Sin embargo el problema radica en que los procesos necesarios para identificar el tipo de organismos en la muestra demandan mucho tiempo y recursos computacionales. En este trabajo se utilizan diferentes algoritmos de inteligencia artificial para agrupar los fragmentos de secuencias según su similitud en conjuntos puros, es decir, conjuntos cuyos fragmentos pertenezcan a un solo organismo o a un mismo grupo taxonómico de organismos. Además se propone un nuevo algoritmo que se basa en la aplicación del k-means de manera iterativa perfeccionando los grupos según la distancia entre ello. Se compararon los resultados con métodos de agrupamientos clásicos y se comprobó que con este último método se obtienen grupos más puros. Este resultado ayuda a que los procesos de ensamblado o de comparación serán más eficientes y rápidos, debido a que se tiene como entrada inicial una muestra más condensada y uniforme, disminuyendo el tiempo y los recursos consumidos durante los proyectos metagenómicos, al mismo tiempo que pueden realizarse de una forma más enfocada.Ítem Acceso abierto Herramientas para el procesamiento del lenguaje natural dentro de las estrategias de marketing empresarial de cara al consumidor(Universidad EIA, 2023) Barrera Ospina, Andrés Felipe; Mejía Beltrán, Carlos AndrésRESUMEN: hoy en día, es conocido por el mundo empresarial la importancia, la variedad y el poder que hay alrededor de los datos. Una de las principales amenazas es no tener clara una estrategia para el manejo de estos. La presente investigación tiene un enfoque gerencial y está dirigida a gerentes y directivos que necesitan entender el uso de la inteligencia artificial para la toma de decisiones. No pretende ser un manual técnico para desarrolladores, sino un enfoque de entendimiento donde los negocios requieren de los datos estructurados y no estructurados para la generación de valor. De esta forma, la investigación pretende entender y dar a conocer el estado del arte que tiene la analítica de datos dentro de los tipos de datos no estructurados a través del procesamiento del lenguaje natural. La metodología se basó en presentar los conceptos que están alrededor del procesamiento de lenguaje natural; presentar las herramientas y plataformas que a la fecha de la elaboración de esta investigación permitan realizar el procesamiento de esta información; y, para terminar, identificar aquellos escenarios de uso donde las áreas de mercadeo deban enfocar sus estrategias de marketing para poder impactar de una forma diferente a su consumidor. El resultado es que gerentes tengan un mayor fundamento y puedan interactuar con herramientas de inteligencia artificial y machine learning usando un lenguaje natural. El diseño metodológico usado para la investigación fue no experimental, donde se enfocó en una revisión de fuentes secundarias que permitieron comprender y entender el estado del arte de este tema.Publicación Acceso abierto Honeypot inteligente de dificultad incremental(Universidad EIA, 2019) Sierra Lara, Juan Esteban; Uribe Londoño, Oscar; Velásquez Múnera, Juan EstebanEn esta época de globalización e hiperconectividad, se ha vuelto común escuchar el término ciberataque o hacker, dado a que hoy en día toda la información de las compañías está en la red. Los ataques cibernéticos se han vuelto un tema común con el que deben lidiar las compañías, quienes tienen que dedicar grandes inversiones para prevenir o mitigar estos ataques. En este trabajo, se plantea la posibilidad eliminar la presencia continua de personal calificado para la identificación de los ataques mediante herramientas de inteligencia computacional que permitan el procesamiento y análisis de los datos obtenidos para poder mitigar los ataques a las infraestructuras reales gracias a la automatización de acciones correctivas pertinentes. Para esto, se creó un ambiente controlado, el cual se sometió a múltiples ataques mientras se realizaba la recolección de la información de estos mismos, permitiendo un posterior análisis para el entrenamiento de una inteligencia artificial, la cual fue creada a partir de múltiples algoritmos, los cuales validan una decisión para catalogar una nueva entrada como algún tipo de ataque o no. Finalmente, se expuso esta inteligencia a través de un servicio, el cual da una respuesta a partir de la información que se le envío, analizando esta para determinar si es un ataque o no.Publicación Acceso abierto Identificación temprana y predicción de sepsis en pacientes de UCI a partir de datos fisiológicos(Universidad EIA, 2020) Gonzalez Mesa, Pablo; Bonet Cruz, IsisRESUMEN: Sepsis se define como una disfunción orgánica causada por una respuesta desregulada a una infección por parte del paciente. Es una de las causas de muerte más común en pacientes de unidades de cuidados intensivos en todo el mundo, lo que lo convierte en una problemática de gran importancia. La detección temprana de este síndrome es de gran importancia a la hora tratar a los pacientes efectivamente. En este trabajo se propone un modelo de inteligencia artificial para la identificación temprana y predicción de sepsis utilizando la base de datos MIMIC y adaptando los resultados a los datos de una institución local de salud. Se realizaron pruebas con múltiples modelos y parámetros de estos. El mejor resultado para la identificación temprana de sepsis fue el resultado de hacer un modelo multiclasificador con diferentes rasgos para los clasificadores, en este caso se usaron un kNN y un XGBoost y utilizar sus resultados como las entradas de una regresión logística. Éste tuvo un AUROC de 0.944. Para predicción de sepsis se propuso un modelo XGBoost capaz de predecir 1, 2 y 3 horas de anticipación con métricas de 0.918, 0.912 y 0.908 respectivamente.Publicación Acceso abierto Informe Semillero de Investigación 2022-1(2022-06-14) Camacho Cogollo, Javier EnriqueInforme general de las actividades realizadas en el semillero de Inteligenica artificial en saludPublicación Acceso abierto Máquina de vector soporte multidimensional para la negociación de divisas en el mercado Forex(Universidad EIA, 2018) Castaño Calderón, Daniel; Marín Tobón, Juan Diego; Peña Palacio, Juan Alejandro. IM, MsC, PhD; Universidad EIAEl mercado Forex es uno de los mercados más negociados en la actualidad gracias a las características que este ofrece. Dadas las características que posee el mercado de divisas como la gran velocidad a la cual fluctúan los precios en el mismo, la alta volatilidad, liquidez y las diferentes formas de apalancamiento, surgen nuevas plataformas de trading avanzadas que han permitido que las personas puedan negociar automáticamente a través de robots de trading, con lo cual se crea la necesidad de utilizar técnicas de inteligencia artificial para diseñar negociadores automáticos, los cuales cuentan con la capacidad de detectar patrones que un ser humano no puede percibir a simple vista, además de tener un aprendizaje propio a medida que se realizan operaciones en el mercado. En este trabajo se desarrolla un modelo a partir de la técnica de inteligencia artificial llamada máquina vector soporte, el cual pueda ser introducido en el mercado Forex para realizar negociación automática a partir de indicadores técnicos, los cuales son seleccionados con base en revisión bibliográfica de diferentes estrategias de negociación, y finalmente se valida el modelo a través de Backtesting, en donde los beneficios son el criterio para determinar la eficiencia del modelo en este mercado. Por último, de acuerdo a los resultados obtenidos se identifican tres tipos de eficiencias: La eficiencia con respecto a los beneficios, en la cual el modelo es eficiente ya que genera rendimientos durante el periodo de prueba; la eficiencia operativa del modelo, en la cual se muestra un alto porcentaje de error, por lo cual el modelo no es confiable en este aspecto; por último, de cara a la eficiencia basada en el riesgo/beneficio, se observa que el modelo es ineficiente, esto debido a la rentabilidad obtenida dentro del periodo de prueba frente al riesgo que representa el mercado de divisas.Publicación Acceso abierto Modelo basado en técnicas de procesamiento del lenguaje natural para extraer y anotar información relacionada con la sepsis(Universidad EIA, 2021) Orrego Martínez, Emmanuel; Camacho Cogollo, Javier Enrique; Bonet Cruz, IsisRESUMEN: La sepsis presenta una de las mayores tasas de mortalidad mundial en los hospitales. Su diagnóstico puede ser considerablemente difícil a causa de su amplio cuadro de síntomas y múltiples causas. En el presente trabajo se ahonda en la evaluación y revisión de los datos de manera estadística y visual. Se proponen diferentes métodos de normalización de datos, limpieza de los mismos y análisis, así como herramientas visuales que permiten realizar un análisis profundo de los mismos. En este primer acercamiento del trabajo se llegará a conclusiones que permitirán avanzar hacia el siguiente paso de implementar un modelo en un entorno controlado. El éxito del análisis en parte dependerá de la calidad de los datos suministrados por los expertos y de la capacidad de limpieza y normalización de los mismos. Se le aplicarán diferentes técnicas de extracción de información y se analizara cuales datos son más relevantes para dar los siguientes pasos hacia el diagnostico de sepsis. Adicionalmente se cuenta con una sección de resultados en los cuales se presenta minuciosamente lo que se ha realizado hasta el momento respecto al análisis te texto estructurado y no estructurado, las técnicas usadas para extracción limpieza y análisis Finalmente se dejará para próximos estudios la implementación de un modelo de inteligencia artificial que apoye el diagnóstico de la sepsis el cual será alimentado con los datos recolectados en este trabajo.Publicación Acceso abierto Modelo de inversión de venture capital. Evidencia para América Latina.(Universidad EIA, 2023) Arboleda Uribe, Sara; Montoya Henao, Luis Miguel; Cruz Castañeda, VivianRESUMEN: El “venture capital” es una herramienta esencial de financiación privada que se utiliza para apoyar a empresas emergentes con un alto potencial de crecimiento. En este estudio, exploramos la aplicación de técnicas de Procesamiento de Lenguaje Natural (NLP) y Grandes Modelos del Lenguaje (LLM) para analizar datos no estructurados, como las descripciones de las empresas, con el objetivo de predecir los montos de inversión que estas empresas podrían atraer. Utilizamos una base de datos de empresas de América Latina que han recibido inversiones de capital de riesgo y aplicamos técnicas de NLP y Machine Learning en combinación con modelos de lenguaje pre-entrenados basados en la arquitectura de BERT para modelar la cantidad invertida. Evaluamos el rendimiento de estos modelos utilizando una serie de métricas relevantes para determinar la capacidad de este tipo de modelos en tareas fuera de NLP. Los resultados de este estudio proporcionan una visión valiosa sobre la capacidad de los modelos de lenguaje para predecir las inversiones de capital de riesgo y destacan las áreas potenciales para futuras investigaciones y mejoras en este campo emergente de estudio.Publicación Sólo datos Modelo de patrones de activación cerebral dada la publicidad audiovisual(Universidad EIA, 2014) Bello Vallejo, Camilo; Villán Quiroz, Estefanía; Peña Palacio, AlejandroUno de los principales desafíos del mercadeo es lograr conectar al consumidor con la marca y con los productos (Gürhan-Canli, Page, & Swaminathan, 2007). Lo anterior es más fácil de alcanzar cuando se establece una conexión con los sentimientos, emociones y sensaciones del consumidor (Fisher, Klitzman, & Lisa, 2010). Para identificar dichas variables existen métodos tradicionales como el focus group, técnicas proyectivas, entrevistas, entre otras. Sin embargo, éstas pueden presentar falencias debido a la subjetividad del análisis cualitativo (Hair, Lukas, & Miller, 2012). Aunque en estos métodos se ha avanzado, existe una ausencia en el reconocimiento de patrones a partir de señales bioeléctricas producidas por comerciales publicitarios de tipo audiovisual, recurso que para muchas compañías es fundamental y prioritario en su estrategia comunicacional. En esta investigación se lleva a cabo la identificación de patrones de activación cerebral a partir de la actividad bioeléctrica generada por comerciales publicitarios, según los conceptos del neuromarketing y la electroencefalografía como una forma de mejorar la investigación publicitaria. Para la clasificación de patrones se hicieron pruebas con los tres modelos vectoriales por adaptación y aprendizaje más usados: Vector Soporte con Kernel Polinómico, Gaussiano y Logístico (Chiang Li & Wen Liu, 2010), donde las variables de entrada eran los 14 sensores y los cinco ritmos cerebrales: Deltha, Theta, Alpha, Beta y Gamma. Se seleccionó una muestra de 30 personas diestras con una edad promedio de 26 años, las cuales fueron expuestas a dos estímulos construidos a partir de una serie de imágenes seleccionadas de la base de datos Geneva Affective PicturE Database (GAPED), banco de imágenes desarrollado por el Centro Suizo de Competencia en Investigación, con el fin de establecer una serie de patrones de referencia para inducir emociones en personas con mayor certeza (Dan-Glauser & Scherer, 2011). Las señales se obtuvieron mediante el Emotiv EPOC SDK, una Interface Cerebro Computador (ICC), desarrollada por Emotiv Systems. Estas se clasificaron como positivas o negativas en términos de la afinidad de una persona frente a una publicidad audiovisual. Luego se procedió a tratarlas según el procedimiento propuesto por el Centro Computacional de Neurociencia SWARTZ (Delorme, Fernsler, Makeig, & Serby, 2006). La construcción de los modelos fue posible debido a que se encontró diferencia estadística entre las señales bioeléctricas de los patrones de emociones positivas y negativas. Posteriormente, se propuso un Indicador de Predisposición que resume los patrones encontrados y permite generalizar de forma cuantitativa la predisposición de consumidores frente a comerciales publicitarios.Para la evaluación de los modelos se analizaron las respuestas de los participantes frente a 20 comerciales. Como resultado, se logró identificar, a partir de la actividad bioeléctrica cerebral, la predisposición cuantitativa que los consumidores mostraron frente a diferentes comerciales publicitarios, alcanzándose una tasa igual en el aprendizaje y la validación de 90% y una tasa de pronóstico de 85,29% con el modelo vectorial lineal.Publicación Acceso abierto Modelo de predicción de sepsis a partir de datos históricos de pacientes en una unidad de cuidados intensivos(Universidad EIA, 2019) González Muñoz, Zuleimi Esteffanny; Merizalde Maya, Pablo; Bonet Cruz, IsisLa creciente disponibilidad de datos y el rápido desarrollo de métodos de análisis de datos, han hecho posible las recientes aplicaciones exitosas de la Inteligencia Artificial en la salud. El uso de estos avances tecnológicos, permiten ayudar en los diferentes procesos de las instituciones de salud como en la predicción y diagnóstico de enfermedades. Dentro de estas, la sepsis es considerada como una afección con alta tasa de mortalidad especialmente en las unidades de cuidados intensivos. Esta afección, puede llegar a ser muy grave debido a las diferentes maneras de manifestarse, lo que dificulta su diagnóstico. La verificación de algunas variables generales inflamatorias, permiten indicar la letalidad de la infección. Actualmente, lo más común es el uso de indicadores como: SOFA, qSOFA y SAPS-II para predecir la posibilidad de sepsis, ya que ésta está muy ligada a la mortalidad. Aunque, en países desarrollados ya se están usando métodos basados en datos históricos con algoritmos de inteligencia artificial para poder hacer una predicción temprana. En el presente trabajo se analizaron los datos almacenados en la base de datos libre MIMIC-III, la cual contiene información de pacientes admitidos en la unidad de cuidados intensivos de The Beth Israel Deaconess Medical Center en Boston, Massachusetts. Se usaron una serie de variables clínicas de los pacientes, las cuales se pasaron por unas reglas duras que generan un valor numérico o probabilidad que se relaciona con la severidad del padecimiento. Las variables elegidas, corresponden a las que se utilizan en los indicadores mencionados para poder predecir la existencia o no de sepsis y la mortalidad de los pacientes. Por lo que el objetivo del trabajo es realizar un modelo de predicción de sepsis temprana, utilizando métodos de inteligencia artificial y compararlos con loa diferentes indicadores para el diagnóstico de esta afección. El procedimiento realizado, se basó en la metodología CRISP-DM, donde se inició con la obtención de los datos, se realizó un análisis de calidad de estos, se procedió a seleccionar las variables de los indicadores mencionados, se realizó una limpieza de estos datos y se obtuvo la vista única, la cual fue utilizada para entrenar clasificadores supervisados seleccionados: árbol de decisiones, KNN, naive bayes, red neuronal y máquinas de vector soporte. Para esta clasificación, se dividieron primero los datos en datos de aprendizaje y validación, se implementaron los modelos, y por último se corroboraron los resultados, eligiendo los mejores modelos y comparando los algoritmos entre sí, por medio de la evaluación de métricas utilizando validación cruzada. Los resultados indicaron que los modelos de machine learning y deep learning implementados, son capaces de igualar e incluso mejorar las predicciones de los modelos de reglas duras, rompiendo los paradigmas y sirviendo como un apoyo en la toma de decisiones de los profesionales de la salud.Publicación Acceso abierto Modelo para la identificación de adenomas hipofisarios por medio de la imagenología y la visión artificial(Universidad EIA, 2023) Suárez Gómez, Silvia Natalia; Cardona Ramírez, Juan Felipe; Bonet Cruz, Isis; Jiménez Mejía, Ricardo de JesúsRESUMEN: con la presente investigación se busca realizar la identificación de adenomas hipofisarios de manera temprana y confiable, por medio de la imagenología y la inteligencia artificial. Este tipo de tumores cerebrales representan el 90% de las lesiones selares que se generan en una persona y aunque en muchas ocasiones son benignos, si no se detectan a tiempo, pueden llegar a ser críticos para la salud humana. Es por esto que, si se hace la detección de anticipada de dichas lesiones, se pueden prevenir riesgos futuros y dar un apoyo a los profesionales de la salud para un mejor diagnóstico en sus pacientes. Para lograr el objetivo del proyecto, inicialmente se hará una recopilación de datos a trabajar. Se tomarán la mayor cantidad de imágenes posibles, tanto de cerebros sanos, como de aquellos que tengan anomalías, necesarias para el desarrollo de las pruebas que se harán en la investigación. Como siguiente, se proseguirá con definir la estandarización para el tratamiento de los recursos (normalización, contraste, que tipo de imágenes se usarán, etc.), esto para continuar con el preprocesamiento y limpieza de los datos encontrados; y así alimentar el modelo de machine learning que consecuentemente se propondrá. Por último, una vez se abarque el problema con todo lo anteriormente mencionado, se hará la revisión final del prototipo generado con los datos separados para las pruebas, es decir, se probará el algoritmo creado con los datos ya clasificados, de pruebas. Se espera de este proceso, que los resultados que arroje el modelo de software sean confiables; de tal manera, que sea una herramienta de gran ayuda al sector de salud y consiguiente de eso, una gran aliada de las personas, pues permitirá que tengan un mayor nivel de confianza en sus diagnósticos.Ítem Acceso abierto Modelo predictivo para identificar zonas potenciales de deslizamientos influenciados por precipitación en la ciudad de Medellín(Universidad EIA, 2023) Garcés Mesa, David; Bonet Cruz, Isis; Peláez Mesa, Claudia PatriciaRESUMEN: el objetivo de este trabajo de grado es desarrollar un modelo predictivo para identificar zonas potenciales de deslizamientos influenciados por la precipitación en Medellín. Se emplearon técnicas de inteligencia artificial, se integró información geoespacial y de precipitación disponible al público. El modelo se basó en la implementación de modelos supervisados y series de tiempo, adaptados de manera híbrida para capturar la relación entre la precipitación y los movimientos en masa. La pregunta de investigación se centra en la falta de un enfoque integrado que utilice información de organismos de atención a emergencias, cartografía, antecedentes de deslizamientos, características geométricas del terreno y la variación espacial y temporal de la precipitación; que permita comprender el comportamiento de los escenarios de riesgo por movimientos en masa en función de la lluvia antecedente y mejorar la interpretación y respuesta en estas situaciones en la ciudad. Los resultados principales se enfocaron en la estimación de parámetros relevantes para la ocurrencia de deslizamientos, como la vulnerabilidad y la cantidad de agua en el suelo según la precipitación previa. Además, se investigaron los umbrales de lluvia específicos por cuadrantes de la ciudad y su relación con la activación de los movimientos en masa. Se observó una influencia significativa de la vulnerabilidad, así como la importancia de las características geológicas y geomorfológicas en la ocurrencia de deslizamientos. Estos hallazgos proporcionan una base sólida para comprender y gestionar el riesgo de deslizamientos en Medellín, y sugieren la implementación de medidas públicas preventivas y de mitigación. En conclusión, este estudio presenta un modelo predictivo que integra información geoespacial y de precipitación para identificar zonas propensas a deslizamientos influenciados por la lluvia en Medellín. Los resultados destacan la necesidad de considerar la vulnerabilidad y las características del terreno al evaluar el riesgo de movimientos en masa en la ciudad.Publicación Acceso abierto Propuesta de asistente virtual inteligente para servicio al cliente basado en inteligencia artificial para pymes de Medellín(Universidad EIA, 2021) Uribe Villegas, Verónica; Gómez L., Jairo A.RESUMEN: Los clientes actuales demandan la inmediatez para que sus requerimientos sean atendidos y al haber un gran número de empresas compitiendo, este aspecto se convierte en una ventaja para sobresalir en el mercado; por su parte para las pymes esto puede resultar complejo pues tienen como prioridad optimizar al máximo sus recursos empezando por su personal para que éste se dedique a labores productivas en lugar de algunas que pueden ser repetitivas. En este trabajo se elaboró una versión beta (fuera de línea) de un asistente virtual inteligente (AVI) para una PYME de Medellín del sector Madera/ corte laser; Comenzando por una revisión de la bibliografía existente acerca de las herramientas y el procedimiento para elaborar un ChatBot basado en inteligencia artificial, siguiendo por la elaboración del código y finalizando con una semana de pruebas del modelo; se encontró como resultado que esta herramienta resulta bastante útil sobre todo para empresas que ofrecen servicios estandarizados y que a medida que el algoritmo se va dotando de más información este puede llegar a tener un gran alcance en el área de servicio al cliente, además a comparación de las soluciones disponibles actualmente en el mercado este modelo presenta un costo muy bajo.