top of page
Writer's pictureJorge Enrique Gomez Pardo

Ep. 03: Seguridad, Inteligencia Artificial y Liderazgo Político: Siete Propuestas para Recuperar la Seguridad en Colombia con la IA




Por: Jorge Enrique Gómez Pardo. Todos los derechos reservados, y2024.

Clip Corto de Lanzamiento del Episodio: https://youtu.be/dko6zZV9H0U

Encuentra más en Instagram: https://www.instagram.com/jegomezpardo/

Encuentra más en X: https://x.com/jegomezpardo

Encuentra más en Substack: https://jegomezpardo.substack.com/


En este tercer episodio buscamos aportar ideas sobre cómo la inteligencia artificial (IA), sobre la base de un liderazgo firme y confiable, puede ayudar a recuperar y fortalecer la seguridad en Colombia, y así, la vida, la libertad, la democracia, propiedad y la paz en nuestro país.


Esto lo haremos esencialmente mediante dos elementos:


1. La IA y su potencial para la seguridad en Colombia:


Veremos qué es la IA, sus principales aplicaciones en seguridad y cómo podría integrarse estratégicamente para abordar desafíos nacionales en seguridad.


Nos basaremos en algunas de las fuentes más autorizadas del mundo. Por ejemplo, el reciente Informe de Tecnología Emergente de Stanford y las enseñanzas de expertos como el profesor de Stanford Andrew Ng.


Y, con base en todo ello, presentaremos siete propuestas específicas para para recuperar la seguridad en Colombia aprovechando la IA.


2. El liderazgo político firme y confiable:


El sentido común y la historia enseñan que cualquier propuesta en seguridad es carreta sin un liderazgo firme, democrático, coherente, leal y, por lo tanto, confiable.


Por lo tanto, presentaremos ejemplos de figuras políticas nacionales e internacionales con ese tipo de liderazgo y que lo han hecho con particular visión y claridad.


Así, mostraremos cómo su estilo de liderazgo fue clave para promover y aprovechar la tecnología, y en general la innovación, para alcanzar sus propósitos en materia de seguridad, defensa, libertad, democracia y paz.


Los ejemplos que abordaremos son los de Álvaro Uribe Vélez, Ronald Reagan, Winston Churchill y Abraham Lincoln.


¿Qué puedes esperar de este episodio?


- En este episodio comprenderás qué es la IA y cómo la IA puede aumentar las capacidades de la Fuerza Pública.


- Conocerás siete propuestas específicas para la seguridad en Colombia basadas en IA.


- Comprenderás la importancia de un liderazgo firme, democrático, coherente, leal y, por lo tanto, confiable para potencializar esta tecnología para recuperar y fortalecer la seguridad y la paz en Colombia.


Índice del Episodio:


00:00:00 Introducción y presentación del episodio


PRIMERA PARTE: DIAGNÓSTICO DE LA SEGURIDAD EN COLOMBIA


00:06:16 Diagnóstico de la Seguridad en Colombia realizado por el expresidente Álvaro Uribe Vélez en Fenalco


SEGUNDA PARTE: LA IA: QUÉ ES Y CÓMO PODEMOS APROVECHARLA PARA MEJORAR LA SEGURIDAD EN COLOMBIA

00:12:44 Introducción a qué es la IA y cómo podemos aprovecharla para mejorar la seguridad en Colombia


00:31:34 Sección 1: Qué es la IA


00:19:01 Sección 2: Premisas para aprovechar la IA


00:36:11 Sección 3: Principales avances de la IA en general y en el campo militar


00:54:17 Sección 4: Propuestas específicas


TERCERA PARTE: LIDERAZGO POLÍTICO FIRME, DEMOCRÁTICO, COHERENTE Y, POR LO TANTO, CONFIABLE


01:04:29 Introducción a la necesidad de un liderazgo político firme, democrático, coherente y, por lo tanto, confiable


01:05:16 Ronald Reagan


01:13:27 Winston Churchill


01:19:02 Álvaro Uribe Vélez


01:26:28 Abraham Lincoln


CUARTA PARTE: CONCLUSIONES Y REFLEXIONES FINALES


01:28:38 Conclusiones y reflexiones finales


01:31:52 Agradecimientos y mensajes finales



🔗 Disponible en:


Este video podcast tiene el propósito de contribuir a defender y promover:

1. La libertad y la democracia en 🇨🇴Colombia 🇨🇴;

2. Lo que hemos construido entre todos como país durante décadas;

3. A que volvamos a nuestro mejor momento;

4. Y así, a los ideales de la Ilustración, los principios liberales clásicos y los valores que unen al centro-derecha.


Es decir, el espacio político que va desde el centro liberal a la derecha conservadora, aplicados a la difícil coyuntura política actual.


🚨Antes de irnos, te invito a que ingreses a este link https://www.youtube.com/playlist?list=PLi1WUCtKgdPtJ-zD7GI4_SbFnBH6LtCyX y veas la playlist de nuestras Cápsulas de Libertad y de Democracia. Con videos cortos a manera de cápsulas, mostramos algunos apartes destacados de los episodios.


Transcripción:

Ep. 03: Seguridad, IA y Liderazgo Político: Siete Propuestas para Recuperar la Seguridad en Colombia con la IA


INTRODUCCIÓN


Hola a todos. Mi nombre es Jorge Enrique Gómez Pardo y soy el autor del libro “Defensa de la libertad y de la Democracia: El Centro Político y los Extremos Explicados”. Como siempre, es un verdadero gusto para mí estar con ustedes en este nuevo episodio del video podcast del mismo nombre.


Hoy hablaremos sobre cómo aprovechar al máximo la inteligencia artificial para recuperar y fortalecer la seguridad, la libertad, la democracia y la paz en Colombia.


El sentido común y la historia enseñan que solamente con las más firmes, decididas, audaces e innovadoras políticas en seguridad, el Estado colombiano podrá garantizar la vida, la libertad y la propiedad de todos los colombianos, sin distinción alguna.


Como lo escribió alguna vez Winston Churchill, “Un gobierno constitucional, para ser digno de ese nombre, debe demostrar su capacidad para preservar la ley y el orden, y para proteger la vida, la libertad y la propiedad. Si no logra hacer cumplir esas garantías fundamentales, ningún sistema parlamentario puede perdurar”.


Dentro de ese contexto, el objetivo de este episodio es contribuir con argumentos y con propuestas a la discusión nacional sobre cómo recuperar la seguridad en Colombia.


Y lo haré desde la perspectiva de la adopción audaz y responsable de la inteligencia artificial, y del liderazgo político, sin el cual simplemente no es posible la innovación de manera significativa, ni mucho menos la seguridad.


Sin seguridad no hay en la práctica vida, libertad, democracia, confianza inversionista y por lo tanto, crecimiento económico, igualdad ante la ley y de oportunidades, empleo creciente y de calidad, así como una política social saludable y sostenible en el tiempo.


Sin seguridad, por lo tanto, no llegará al Estado social de derecho democrático a todo el territorio nacional, ni habrá una Paz Ilustrada. Es decir, una paz conforme a los demás ideales de la Ilustración y, por lo tanto, conforme a los principios liberales clásicos que se derivan de esos ideales, tal como lo vimos en el primer episodio.


En particular, presentaré propuestas para recuperar con el apoyo de la inteligencia artificial, la seguridad, la libertad, la democracia y la paz en Colombia.


Eso lo haré a la luz de tres aspectos fundamentales.


El primero, la revolución tecnológica que tiene el privilegio de vivir hoy la humanidad con la inteligencia artificial.


El segundo, el grave deterioro que vive la seguridad en nuestro país.


Y el tercero, la realidad política actual que vive en nuestro país y las elecciones presidenciales que se avecinan en 2026.


Aquí argumentaré entonces que es posible aprovechar al máximo y con realismo y responsabilidad la inteligencia artificial para devolverle la seguridad a la patria, pero que para ello lo más importante es que elijamos un presidente o una presidenta con un firme claro y confiable liderazgo político que, entre otros, potencialice las posibilidades tecnológicas que ofrece la inteligencia artificial.



Las propuestas y las consideraciones que aquí presentaré las haré basándome en las más recientes, relevantes y autorizadas fuentes globales en materia de inteligencia artificial en general y de la inteligencia artificial en seguridad, así como de ejemplos históricos sobresalientes de liderazgo político.


Para esto, he dividido este episodio en cuatro partes.


En la primera, presentaré un diagnóstico sobre la seguridad en Colombia, así como algunas de las alternativas que se han planteado, entre ellas el aprovechamiento de la inteligencia artificial. En este sentido, me remitiré al completo análisis que hizo el expresidente Álvaro Uribe Vélez en el último congreso de Fenalco.


En la segunda explicaré qué es la inteligencia artificial y qué puede y qué no puede hacer hoy. En ese marco, presentaré alguna serie de propuestas concretas para aprovecharla al máximo para recuperar la seguridad en Colombia, bajo las más firmes y decididas políticas en seguridad en el marco del Estado de derecho y de los ideales de la Ilustración que hemos visto en los episodios precedentes.


Por supuesto que no soy un ingeniero experto en inteligencia artificial. Estas aproximaciones las hago a partir de algunas de las fuentes más autorizadas para hacedores de políticas públicas, empresarios y emprendedores que quieran entenderla y adoptarla efectivamente en sus emprendimientos, en sus empresas y en el gobierno. Documentos y enseñanzas de la Universidad de Stanford y de sus profesores serán nuestra guía principal en este sentido.


No me cabe duda que una audiencia tan informada y curiosa intelectualmente como esta -que por cierto está creciendo ampliamente, lo cual les agradezco muchísimo- encontrará interesante conocer de una manera sencilla y realista qué es la inteligencia artificial, y qué puede y qué no puede hacer.


En la tercera haré una serie de consideraciones sobre la importancia esencial de un liderazgo firme, coherente y leal, y por lo tanto, confiable para restablecer la seguridad en general y para favorecer la innovación y el aprovechamiento de las nuevas tecnologías. Para esto me apoyaré en algunos ejemplos nacionales e internacionales de la mayor relevancia como Uribe, Reagan, Churchill y Lincoln.


Estoy seguro también que esta audiencia tan interesada por Colombia, la historia y la política encontrará llamativa esta tercera parte.


Finalmente, en la cuarta parte, presentaré una serie de conclusiones y reflexiones finales.


Sin más preámbulos, comencemos entonces con la primera parte.


I. PRIMERA PARTE: DIAGNÓSTICO DE LA SEGURIDAD


En el último Congreso de Fenalco el expresidente Álvaro Uribe Vélez hizo, entre otros, un detallado diagnóstico de la inseguridad en Colombia, de las razones por la cuales llegamos a este punto y presentó una serie de propuestas para darle solución.


Para una mayor fluidez y claridad los dejo con el extracto en video de esa intervención en lo que tiene que ver con la seguridad:


• “La seguridad sigue empeorando y la mayor angustia es que no se advierte voluntad de mejorarla.

• El año pasado tuvimos 13.555 homicidios y a julio de este año 7.369, tendencia que podría igualar o superar los 15.000, cifra de 2010.

• El año pasado hubo 254 secuestros contra 228 de 2010. En julio ya llevábamos 110.

• De 10 masacres en 2010 pasamos a 93 el año pasado, a septiembre se han acumulado 47.

• Hasta este mes se han sumado 117 asesinatos de líderes sociales.

• El país está extorsionado, las cifras poco dicen porque las víctimas prefieren pagar que denunciar. Esto por la desprotección y el miedo a la retaliación.

• Duele el asesinato de nuestros soldados y policías.

• Con el narcotráfico y la minería ilegal no habrá paz, unos delincuentes firman y otros más jóvenes entran a reemplazarlos en el narco crimen.

• En 2013, cuando se habían reducido los cultivos a 42.000 o 48.000 hectáreas de coca, ante los anuncios de La Habana empezó la tendencia de crecimiento que en 2018 alcanzó 220.000 hectáreas. Hoy se superan las 300.000 hectáreas.

• En La Habana se aceptó que la coca, el secuestro y otras rentas ilegales, eran delitos políticos por financiar la “sedición”, tal como se reconoció al terrorismo. En consecuencia, se autorizó elegibilidad política, se aceptó que no hubiera cárcel ni extradición, se prohibió la fumigación y la erradicación quedó condicionada a la aceptación de las comunidades.

• Programas tan eficaces como Familias Guardabosques, que eliminaba la coca y recuperaba la selva, se dejaron morir.

• Varias zonas del país están sin Estado de derecho, desplazado por el poder efectivo de los estados criminales. Llegará un momento que la ciudadanía diga no más a las republiquetas y pida autoridad para recuperar el imperio del Estado Democrático.

• También puede ser que las drogas sintéticas acaben con la coca. Pero si no actuamos pronto estas soluciones podrían tropezar con un problema social de 500.000 ciudadanos más, que al vivir de esos negocios, requieran alternativas de ingreso.

• Habrá que recuperar la moral de la Fuerza Pública, afectada por la JEP que ni se reformó ni se eliminó como se prometió. Igualó a las Fuerzas Armadas con el terrorismo. Muchos militares tienen que aceptar delitos no cometidos, contrarios a su deber ser, como la omisión, para evitar ir a la cárcel. Para el delincuente la aceptación del delito es el reconocimiento de su deber ser, la legitimación de una conducta criminal que le justificaron, la garantía de su libertad y el derecho a la acción política.

• Habrá que recuperar la moral de la Fuerza Pública, afectada por la desvinculación de oficiales bien preparados.

• Habrá que fortalecerla con transporte, aviación, tecnología de última generación.

• El Gobierno que presidí se benefició del Plan Colombia y del principio de fortalecimiento de las Fuerzas que empezó la administración Pastrana.

• Pero se sacrificó un segundo Plan Colombia, con apoyo bipartidista en los Estados Unidos, negociación iniciada con el expresidente Bush y firmada con el expresidente Obama. Estaríamos mucho mejor, pero las presiones de Chávez, Cuba y la Farc, incidieron para que el nuevo Gobierno no lo llevara a la ratificación del Congreso.

• Se requiere mucho apoyo eficaz internacional, tendrán que conseguirlo.

• Será urgente restablecer las relaciones con Israel en el marco sincero del reconocimiento a los dos Estados.

• Si en algún país es prioritaria la inteligencia artificial en seguridad es en el nuestro”.


Como lo señaló el expresidente Uribe, “si en algún país es prioritaria la inteligencia artificial en seguridad es en el nuestro”. En esa línea, a continuación veremos qué es la IA y cómo podemos aprovecharla para mejorar la seguridad en Colombia


II. SEGUNDA PARTE: LA INTELIGENCIA ARTIFICIAL: QUÉ ES Y CÓMO APROVECHARLA PARA MEJORAR LA SEGURIDAD EN COLOMBIA


Esta segunda parte del episodio la he dividido en cuatro secciones.


En la primera, explicaré qué es la inteligencia artificial. Para poder hacer una propuesta de seguridad aprovechando al máximo esta nueva tecnología, es necesario que entendamos bien qué es, qué puede y qué no puede hacer hoy en día esta nueva tecnología revolucionaria.


En la segunda, expondré cuáles son las premisas que, a mi modo de ver, deberían orientar el aprovechamiento de esta tecnología en cualquier área general, incluida también la seguridad.


En la tercera sección, presentaré algunos de los principales avances que el mundo ha conocido hasta el momento en materia de inteligencia artificial. También en general, y también en particular en seguridad. Esto, junto a las dos secciones anteriores, nos dará las bases para formular las propuestas que nos permitan aprovechar al máximo esta tecnología para recuperar y fortalecer la seguridad en Colombia.


Finalmente, en la cuarta sección de esta segunda parte del episodio, y sobre la base de todo lo anterior, presentaré una serie de propuestas específicas para mejorar la seguridad en todo el país, aprovechando, reitero, al máximo las posibilidades actuales de la inteligencia artificial.


Quiero resaltar que aunque es muy importante comenzar a plantear propuestas específicas a efectos de construir con argumentos y con propuestas a la discusión nacional sobre cómo recuperar la seguridad en Colombia aprovechando la inteligencia artificial, creo sinceramente que para este tema puntual lo más importante es que comprendamos muy bien los conceptos y las posibilidades actuales de esta tecnología.


Con esto claro, los expertos en seguridad podrán mejorar estas propuestas y proponer unas nuevas.


Para el desarrollo de estas secciones. Me baso principalmente en dos insumos fundamentales.


El primero es el “The Stanford Emerging Technology Review 2023”. Este informe, publicado hace unos meses, es el primer producto de una iniciativa de la Universidad de Stanford para hacer pedagogía a los hacedores de políticas públicas en tecnología.


Este informe es una colaboración entre tres instituciones muy importantes dentro de esa universidad. La primera, el Hoover Institution, que es un centro de investigación de políticas públicas de esa universidad. El segundo, la Escuela Ingeniería. Y el tercero, el Instituto de Inteligencia Artificial Centrada en el Ser Humano.


En adelante, me referiré a este documento como el informe de Stanford.


El segundo insumo son los materiales y mis notas del curso “Generative AI for Everyone”, dictado por el profesor de esa universidad, Andrew NG, el cual finalicé en enero de 2024.


Este curso es muy importante porque explica qué es la inteligencia artificial generativa, cómo funciona, qué puede y qué no puede hacer, enfocándose en sus aplicaciones prácticas en el mundo real, incluyendo el desarrollo de proyectos específicos.


En adelante, me referiré a este curso y a sus contenidos como el curso de Andrew NG.


1. Qué es la Inteligencia Artificial


Vamos entonces a la primera sección de esta segunda parte del episodio.


Vamos entonces con la definición de la inteligencia artificial. De acuerdo con el informe de la Universidad de Stanford,


“La inteligencia artificial es la capacidad de una computadora para realizar algunas de las funciones asociadas con el cerebro humano, incluyendo la percepción, el razonamiento, el aprendizaje, la interacción, la resolución de problemas e incluso el ejercicio de la creatividad”.


El informe también señala que “el mayor avance del último año en inteligencia artificial fue el auge de los grandes modelos de lenguaje, conocidos por sus siglas LLMs como el GPT-4, en los cuales se basa el chatbot ChatGPT”. Es decir, para términos prácticos, que el ChatGPT que todos conocemos ha sido el principal y más conocido avance de la inteligencia artificial en el último año.


Estos modelos de lenguaje, también conocidos como programas y que fueron la base, reitero, para la creación del ChatGPT, hacen parte de un área específica de la inteligencia artificial conocida como Inteligencia artificial generativa.


De acuerdo con el profesor de la Universidad de Stanford, Andrew NG,


“La inteligencia artificial generativa es un sistema de inteligencia artificial que puede producir contenido de alta calidad, específicamente texto, imágenes y audios”.


En esa misma línea, El informe de Stanford señala que la inteligencia artificial generativa,


“Es un tipo de inteligencia artificial que puede producir nuevo contenido, por ejemplo, textos, imágenes, sonidos o animación basada en cómo ha sido entrenada y en los insumos que se le den”.


Agrega el informe de Stanford,


“La inteligencia artificial es una tecnología fundamental que está impulsando otros campos científicos, y al igual que la electricidad y el internet, tiene el potencial de transformar cómo opera la sociedad”.


Estos conceptos nos comienzan a dar una idea sobre las capacidades de la inteligencia artificial, y a partir de ellas, podemos comenzar a visualizar sus aplicaciones prácticas para recuperar y fortalecer la seguridad en Colombia.


Además, a partir de estas definiciones se derivan las premisas fundamentales que presentaré a continuación y que también servirán de base para identificar cómo podemos aprovechar para estos efectos la inteligencia artificial.


2. Premisas


Vamos entonces ahora con las premisas. A continuación les presentaré las siete premisas que, como les comenté, a mi modo de ver, deben orientar el aprovechamiento de esta tecnología en cualquier área, pero en este punto, con un énfasis en la seguridad.


Las primeras seis, se basan en lo que enseña el profesor Andrew NG en su curso sobre inteligencia artificial generativa. La séptima, la tomó del informe de Stanford, cuyo análisis realizo en conjunto con lo que enseña el profesor Andrew NG. Y todo lo anterior, complementado con mi propia experiencia personal y profesional sobre el tema.


2.1. La IA tiene cinco grandes ejes fundamentales para su uso


La primera premisa es que la inteligencia artificial se desarrolla en torno a cinco grandes ejes. El primero, la tecnología en sí misma. El segundo, la información es necesaria para su funcionamiento. El tercero, el entrenamiento de los modelos. El cuarto, la inteligencia artificial se debe aplicar de manera audaz, flexible y ética. Y el quinto, la habilidad de la responsabilidad humana en el uso de la inteligencia artificial.


Las siguientes premisas son desarrollos de cada uno de estos ejes, las cuales explicaré a continuación.


2.2. Tecnología en sí misma


La segunda premisa es la tecnología en sí misma. En este sentido, lo que hay que saber para nuestros defectos es en lo fundamental dos cosas.


En primer lugar, que el énfasis de la inteligencia artificial hoy en día está en máquinas que puedan aprender tan bien o incluso más y mejor que los humanos y con ciertas ventajas adicionales.


En segundo lugar, que en general esas máquinas hoy en día solamente pueden ser creadas en su mayoría por grandes tecnológicas como las de Estados Unidos. Con relación a lo primero, el informe de Stanford señala lo siguiente:


“El énfasis hoy en día en la inteligencia artificial está en que las máquinas puedan aprender tan bien como los humanos, o al menos de manera comparable. Sin embargo, debido a que las máquinas no están limitadas por las restricciones de la biología humana, los sistemas de inteligencia artificial pueden operar a velocidades mucho mayores y procesar volúmenes y tipos de información más grandes de lo que es posible con las capacidades humanas”.


Y con relación a lo segundo, y siguiendo también el informe de Stanford,


“Tal como está hoy en día, modelos de inteligencia artificial como el GPT-4 solo pueden ser desarrollados por grandes actores industriales con los recursos para construir y operar grandes centros de datos y de cómputo. Empresas como Google, Microsoft y Meta, anteriormente conocido como Facebook.


Tradicionalmente, los académicos y otros en la sociedad civil han llevado a cabo investigaciones para comprender las posibles ramificaciones sociales de la inteligencia artificial. Pero con grandes compañías controlando el acceso a sistemas de inteligencia artificial, no pueden hacerlo de manera independiente”. El GPT-4, reitero, es la tecnología a partir de la cual se creó el ChatGPT que todos conocemos.


Digo en general porque aunque los modelos más avanzados de inteligencia artificial como el GPT-4 solo pueden ser desarrollados por estos grandes actores tecnológicos con recursos masivos, se están abriendo nuevas oportunidades mediante modelos de código abierto y estrategias de lo que se conoce como Edge Computing o infraestructura propia.


Sin embargo, para aprovechar al máximo las capacidades más avanzadas, es crucial colaborar con gigantes tecnológicos como Microsoft, Google y Meta y OpenAI, que lideran en infraestructura y desarrollo los sistemas de inteligencia artificial de última generación.


En conclusión, si bien están surgiendo oportunidades con modelos de código abierto y edge computing, la integración con estos gigantes tecnológicos es clave para aprovechar al máximo sus infraestructuras.


El desafío, entonces, pareciera estar en la integración de nuestras propias aplicaciones y herramientas para poder combatir la inseguridad con lo que ofrecen esos grandes proveedores tecnológicos internacionales.


2.3. Información


Vamos a la tercera premisa, que se refiere a la información necesaria para su funcionamiento. En este sentido, lo que hay que saber es básicamente dos cosas.


En primer lugar, que para que los modelos de inteligencia artificial funcionen, se necesitan cantidades enormes de información.


En segundo lugar, que la calidad de esa información es esencial para que los resultados, a su vez, sean de calidad.


En cuanto a lo primero, el informe de Stanford señala lo siguiente: “La inteligencia artificial requiere de grandes cantidades de datos de los cuales pueda aprender. Estos datos pueden tener diversas formas, incluyendo texto, imágenes, vídeos, lecturas de sensores y más”.


Agrega este informe,


“Para dar una idea de la magnitud, uno de los modelos de inteligencia artificial recientemente en las noticias es el GPT-4. Se estima que los datos requeridos para entrenar este modelo incluyen alrededor de 1 millón de libros, cientos de gigabytes de texto para usar la terminología técnica, extraídos de miles de millones de páginas web y libros escaneados”.


Y en cuanto a lo segundo, el informe de Stanford señala lo siguiente:


“La cantidad y la calidad de los datos juegan un papel crucial en la determinación del rendimiento y las capacidades de los modelos de inteligencia artificial. Sin suficientes datos de alta calidad, los modelos de inteligencia artificial pueden generar resultados inexactos o sesgados”.


Para ilustrar este punto me gusta usar la analogía de los seres humanos respecto a lo que consumimos. En efecto, al final somos en buena medida lo que consumimos. No solo en lo que tiene que ver con la alimentación propiamente dicha, sino también lo que leemos, vemos en televisión o redes sociales, de los que oímos en música o en radio, o de quienes nos rodean.


Así, lo que pensamos y lo que sentimos, y por lo tanto, lo que hacemos, al final depende en importante medida de lo que consumimos.


En el caso de los modelos de inteligencia artificial generativa ello va incluso más allá porque sus resultados dependen 100% de la información con los que se crean.


Por lo tanto, así como los humanos somos en gran medida el reflejo de lo que consumimos, la inteligencia artificial depende completamente de la información con la que ha sido entrenada.


2.4. Entrenamiento


Vamos a la cuarta premisa que es la del entrenamiento. Teniendo la tecnología y la cantidad y la calidad de información necesaria, el reto es entonces el entrenamiento de los modelos o los chatbots, lo cual requiere de muchísimo trabajo.


En ese sentido, varias investigaciones de OpenAI, que es la casa matriz del ChatGPT, confirman la necesidad de un entrenamiento muy intensivo, además de la alimentación de grandes cantidades de información específica y de calidad que se le agrega a los modelos, tal como lo hemos hablado antes.


2.5. Automatización y aumentación


Vamos ahora a la quinta premisa. Esta es muy importante y dice así: Lo más importante en la inteligencia artificial no es tanto la automatización de las tareas, sino la aumentación de las capacidades humanas que de alguna forma nos vuelven casi “biónicos.”


El profesor Andrew NG distingue entre automatización y aumentación.


Para él, la automatización es que el modelo automáticamente lleva a cabo una determinada tarea.


Por ejemplo, la transcripción automática o el resumen de una conversación con un cliente.


Y la aumentación, señala el profesor Andrew NG, es la ayuda, la ayuda, no la automatización, sino la ayuda del modelo de inteligencia artificial generativa a los humanos con esa tarea.


Por ejemplo, la recomendación de una respuesta a ese cliente con base en lo hablado en esa reunión.


Al respecto, el informe de Stanford señala lo siguiente:


“La inteligencia artificial puede automatizar una amplia variedad de tareas, pero también tiene un gran potencial para aumentar las capacidades humanas y permitir que las personas hagan lo que mejor saben hacer. Los sistemas de inteligencia artificial pueden trabajar junto a las personas, complementándolas y asistiéndolas en lugar de reemplazarlas”.


Y es aquí es en donde, a mi modo de ver, están las reales oportunidades para quienes quieran aprovecharlas. En efecto, con la aumentación, la inteligencia artificial nos vuelve de alguna forma “biónicos” a los humanos.


Para ilustrar este punto me gusta utilizar el ejemplo de un hipotético tenista. Por ejemplo, si alguien que quiere ser un mejor jugador de tenis con una nueva tecnología revolucionaria, si tiene la técnica correcta y el estado físico correcto con la nueva tecnología se puede volver casi “biónico” y potencializar al máximo sus capacidades, volviéndose un jugador de tenis inmensamente mejor que sin la ayuda de la nueva tecnología.


Pero si no tiene la técnica y un estado físico mínimo, pues lo que hará es que romperá las bolas de tenis, las raquetas, las mallas o mandará la bola hasta Monserrate. Pero no será un jugador de tenis extraordinario.


2.6. Tareas y trabajos


Vamos ahora a la sexta premisa, que está también muy relacionada con la anterior, y dice así: La inteligencia artificial generativa reemplaza tareas, pero no trabajos.


Así, en línea con lo señalado en la premisa anterior, este es uno de los puntos que más enfatiza el profesor Andrew NG: La inteligencia artificial no se debe ver como una automatización, y por lo tanto, reemplazo de los trabajos, sino que lo que puede automatizarse, y por ende sí reemplazar, son tareas.


Él resalta que la mayoría de los trabajos son una colección de varias tareas y que dentro de esas tareas algunas se pueden automatizar y otras no, y por lo tanto, algunas se pueden reemplazar y otras.


Así las cosas, el uso estratégico de la inteligencia artificial debe, entre otros, enfocarse en identificar las tareas humanas que se pueden automatizar y aumentar, de modo que se liberen tiempos y se potencialicen las capacidades humanas.


Si bien los trabajos y las tareas del conocimiento son los más expuestos, también son en los que hay más oportunidades.


Como dice el profesor Andrew NG en su curso,


“La inteligencia artificial no reemplazará a los radiólogos. Pero los radiólogos que usan la inteligencia artificial sí reemplazarán a los radiólogos que no la utilizan”.


2.7. Gestión del Riesgo


Vamos ahora a la séptima y última premisa. Esta es una premisa muy importante para todo lo que se refiera a la implementación de la inteligencia artificial. Pero también, y de manera muy específica, para la seguridad. Y dice así: Una correcta gestión del riesgo es indispensable para el máximo aprovechamiento responsable de la inteligencia artificial en general, y para la seguridad en Colombia.


De acuerdo con el informe de Stanford,


“El principal desafío para llevar la innovación en inteligencia artificial a la operación es la gestión del riesgo”.


En consecuencia, creo que una gestión del riesgo adecuada en materia de inteligencia artificial en el ámbito de la seguridad debiera contener al menos los dos siguientes elementos.


El primero, es el elemento de la indelegabilidad de la responsabilidad humana.


De acuerdo con el informe de Stanford, se debe tener en cuenta que incluso los sistemas de inteligencia artificial más avanzados pueden fallar en forma inesperada y causar problemas.


Así, el informe señala lo siguiente:


“Incluso la inteligencia artificial más avanzada tiene muchos modos de falla que son impredecibles, no ampliamente reconocidos, difíciles de corregir, inexplicables y capaces de conducir a consecuencias no deseadas”.


De allí que uno de los principales desafíos para usar la inteligencia artificial en la seguridad es cómo manejar los riesgos que conlleva. De acuerdo con el informe de Stanford, “La inteligencia artificial funciona de manera diferente a las tecnologías tradicionales, pues se basa en reconocer patrones y usar grandes cantidades de datos para tomar decisiones sin necesariamente entender cada situación al detalle”.


Agrega este informe que en Estados Unidos, por ejemplo, “Aunque se reconoce el potencial de la inteligencia artificial para mejorar las operaciones militares, la integración de estas capacidades ha sido lenta porque el sistema de adquisición y adopción de nuevas tecnologías está diseñado para evitar errores y problemas”. En otras palabras, para minimizar el riesgo.


Esto significa que es muy importante tener una supervisión constante y ser muy cuidadosos en cómo se implementa la inteligencia artificial para asegurarnos que realmente ayude sin causar efectos negativos.


No obstante, y en criterio que comparto, el informe de Stanford señala entonces que para poder aprovechar la inteligencia artificial de manera efectiva para la seguridad es necesario estar dispuestos a aceptar ciertos riesgos controlados, lo cual también aplicaría a la situación de Colombia.


Reitero, la inteligencia artificial es una herramienta que aumenta las capacidades humanas, pero no las reemplaza. Por lo tanto, la decisión y la responsabilidad por las decisiones debe estar siempre en cabeza de los humanos.


Vamos ahora al segundo elemento y es el elemento de flexibilidad sobre la base de principios.


En este sentido, y en línea con lo que acabamos de señalar, es clave ser conscientes que se debe tener una gestión del riesgo que sea muy clara en los principios que defiende y con amplia flexibilidad, de modo que, al mismo tiempo que garanticen los derechos y libertades ciudadanas, se promueva de manera audaz y decidida la innovación, y así, la seguridad apoyada en la inteligencia artificial en el marco del Estado de derecho, y en consecuencia, de los ideales de la Ilustración que vimos en el primer episodio.


En conclusión, para aprovechar al máximo los beneficios de la inteligencia artificial para la seguridad en Colombia, necesitamos no solo aplicarla con audacia y decisión, sino también con responsabilidad, teniendo un enfoque de gestión de riesgos adecuado.


En mi opinión, ese enfoque de gestión de riesgos debe tener claro el objetivo de ser aprovechada máximo para ser verdaderamente útil para el restablecimiento de la seguridad en el país, pero bajo unos principios claros como que todo debe ser en el marco del Estado de derecho y de la indelagabilidad de la responsabilidad humana en el modelo de inteligencia artificial.


La inteligencia artificial debe aplicarse, por lo tanto, con audacia, decisión y responsabilidad, para recuperar y fortalecer la seguridad en Colombia, bajo las más firmes y decididas políticas en seguridad en el marco del Estado de derecho y de los ideales de la Ilustración que, reitero, vimos en el primer episodio.


3. Avances de la Inteligencia Artificial en general y en el campo militar


Vamos entonces a la tercera sección de esta parte del episodio. Aquí les presentaré algunos de los principales avances que el mundo ha conocido hasta el momento en materia de inteligencia artificial en general, y en materia Inteligencia artificial en seguridad.


Las premisas anteriores, y en general, los conceptos y todo lo que hemos visto hasta acá, nos ayudarán no solo a entender mejor esos avances, sino también a comenzar a perfilar con mayor claridad cuál podría ser su aplicación en Colombia.


A continuación veremos primero los avances tecnológicos, y luego veremos los principales avances regulatorios y de colaboración en materia de seguridad.


3.1. Principales Avances Tecnológico de la IA en general y en Materia de Seguridad


3.1.1. Principales Avances Tecnológicos de la IA en General


Comencemos entonces con los principales avances tecnológicos, y dentro de ellos, con los principales avances tecnológicos en general.


De acuerdo con el informe de la Universidad de Stanford, estos son básicamente tres: (1) los modelos de lenguaje extenso (LLMs) por sus siglas en inglés que hemos visto, (2) la visión por computadora, y (3) los descubrimientos científicos facilitados por la inteligencia artificial.


A) Los modelos de lenguaje extenso (LLMs)


De acuerdo con el informe de la Universidad de Stanford,


“Los modelos de lenguaje extenso son sistemas de inteligencia artificial entrenados con volúmenes muy grandes de texto escrito para reconocer, resumir y generar nuevo texto basándose en un análisis estadístico que predice qué palabras es probable que aparezcan después de otras”.


Como antes lo vimos, el informe de Stanford también señala que el mayor avance en el último año en materia de inteligencia artificial fueron precisamente estos modelos de lenguaje que fueron la base para lo que hoy conocemos como el de ChatGPT.


B) La Visión por Computadora


Vamos ahora con el segundo gran avance en materia de inteligencia artificial en general, que es la visión por computadora.


Continuando con el informe de la Universidad de Stanford,


“En los últimos años, la visión por computadora ha logrado un progreso significativo en varios problemas importantes, como: La clasificación de imágenes, es decir, categorizar objetos en imágenes. La detección y reconocimiento facial, es decir, identificar rostros en imágenes y compararlos con otros rostros ya registrados.


También está la segmentación de imágenes médicas, es decir, identificar un órgano con una imagen y aislar las porciones correspondientes a ese órgano. También tenemos el reconocimiento de objetos, es decir, identificar y localizar objetos específicos en imágenes. Igualmente tenemos el reconocimiento de actividades, es decir, identificar actividades humanas en videos. Por ejemplo, una persona sentada o caminando”.


C) Descubrimientos científicos facilitados por IA


Y el tercer gran avance en materia de inteligencia artificial en general son los descubrimientos científicos facilitados por la inteligencia artificial.


Según el informe de Stanford,


“En los últimos años, los modelos de inteligencia artificial que utilizan grandes volúmenes de datos científicos han acelerado varios descubrimientos. Ejemplos destacados incluyen las predicciones de las estructuras de múltiples proteínas asociadas con el Sars-Cov-2, el uso de modelos de inteligencia artificial para descubrir nuevos anticuerpos y la mejora de los procedimientos del control de plasma para la fusión nuclear”.


3.1.2. Principales Avances Tecnológicos de la IA en Seguridad


Vamos entonces ahora con los principales avances en materia inteligencia artificial para la seguridad.


a) Utilización de IA para drones


En primer lugar, tenemos la inteligencia artificial para el uso de drones. En ese sentido, Reuters informó que en Ucrania varias startups están desarrollando sistemas de inteligencia artificial para una amplia flota de drones.


El desarrollo de drones con inteligencia artificial en ese país se divide principalmente en tres aspectos. El primero, sistemas visuales para identificar objetivos y navegar de forma autónoma. El segundo, el mapeo del terreno para la navegación. Y el tercero, programas más avanzados que permiten a los drones operar en enjambres interconectados.


Israel, por su parte, también está aprovechando la inteligencia artificial para sus drones. Ha implementado aparatos de estos muy avanzados que patrullan Gaza durante horas, recopilando datos civiles y militares. Estos drones utilizan algoritmos de aprendizaje automático para procesar enormes volúmenes de información y detectar riesgos e inseguridad.


b) Utilización de IA para Interceptar Misiles


En segundo lugar, tenemos la utilización de la inteligencia artificial para la interceptación de misiles en donde Israel es líder en ese campo. En efecto, lo que se conoce como su “Doma de Hierro” es considerado como el sistema de defensa con inteligencia artificial más avanzado del mundo, el cual ha demostrado una notable eficiencia interceptando cohetes provenientes de Gaza y del Líbano.


En este caso, la inteligencia artificial juega un papel crucial al rastrear los proyectiles entrantes, calcular su trayectoria y lograr su interceptación.


Recientemente, el Domo de Hierro interceptó casi el 90% de los 4300 cohetes lanzados desde Gaza, defendiendo así de muertes trágicas y daños graves a ciudades como Tel Aviv y Ashkelón.


3.2. Algunos de lo Principales Avances y Colaboraciones de la IA en general y en Materia de Seguridad


Vamos ahora con algunos de los principales avances y colaboraciones en inteligencia artificial en general y en materia de seguridad. OpenAI, que con su ChatGPT como hemos dicho es realmente la empresa que le dio el gran salto a la inteligencia artificial, tenía hasta enero de 2024 unas políticas muy estrictas en materia de seguridad y defensa para el uso de su tecnología.


En enero de 2024, sin embargo, actualizó su política sobre aplicaciones militares y bélicas de su tecnología.


Así, aunque eliminó la restricción general que tenía en ese sentido, también prohibió que sus servicios se utilicen para “propósitos más específicos como el desarrollo de armas, causar lesiones a otros o destruir propiedades”.


Dentro de ese contexto, OpenAI ha trabajado activamente con el Departamento de Defensa de Estados Unidos en varios proyectos especialmente enfocados en capacidades de ciberseguridad y para desarrollar herramientas que ayuden a prevenir el suicidio entre veteranos.


Ahora bien, en las últimas semanas esta cooperación se ha venido profundizando.


El 24 de octubre de 2024, la Casa Blanca emitió un Memorando de Seguridad Nacional sobre Inteligencia Artificial.


En este documento se establecen los lineamientos sobre cómo el gobierno de Estados Unidos puede aprovechar responsablemente la inteligencia artificial para fortalecer la seguridad nacional.


Para esto, establece una serie de salvaguardias esenciales para su uso. Entre ellas, y siguiendo con el lenguaje que hemos venido utilizando a lo largo de este episodio, que sean en el marco del Estado de derecho, lo cual, en una la democracia liberal del siglo 21 incluye los derechos humanos, y que establezcan la indelegabilidad y la responsabilidad humana.


Así, este documento estableció, entre otros, que:


“Este memorando proporciona instrucciones adicionales sobre el uso adecuado de modelos de inteligencia artificial y tecnologías habilitadas por la inteligencia artificial en el gobierno de los Estados Unidos, especialmente en el contexto de los sistemas de seguridad nacional, al mismo tiempo que se protegen los derechos humanos, los derechos civiles, las libertades civiles, la privacidad y la seguridad en las actividades de seguridad nacional habilitadas por la inteligencia artificial”.


Asimismo, el memorando también estableció, entre otros, lo siguiente:


“Fortalecimiento de la gobernanza y la gestión de riesgos de la inteligencia artificial: A medida que el gobierno de los Estados Unidos avance rápidamente en la adopción de la inteligencia artificial en apoyo de su misión de seguridad nacional, debe (1) seguir tomándome medidas activas para defender los derechos humanos, los derechos civiles, las libertades civiles, la privacidad y la seguridad, (2) asegurar que la inteligencia artificial se use de manera consistente con la autoridad del Presidente como comandante en jefe para decidir cuándo ordenar operaciones militares en defensa de la nación, y (3) garantizar que el uso militar de las capacidades de inteligencia artificial sea responsable, incluyendo su uso durante operaciones militares dentro de una cadena de mando y control humana responsable”.


“En consecuencia -agrega el memorando- el gobierno de los Estados Unidos debe desarrollar e implementar prácticas robustas de gobierno y de gestión de riesgos de la inteligencia artificial para asegurar que su innovación esté alineada con los valores democráticos, actualizando la orientación de las políticasn cuando sea necesario”.


En respuesta, ese mismo día, OpenAI respaldó ese memorando en la Casa Blanca y reafirmó su compromiso de desarrollar inteligencia artificial que “beneficie al mayor número de personas posible” y que “apoye los esfuerzos de los Estados Unidos y de sus aliados para avanzar en la inteligencia artificial de una manera que respete los valores democráticos”.


Sobre el respaldo memorando, OpenAI señaló que “abre la posibilidad de apoyar más trabajos en seguridad nacional en Estados Unidos y países aliados de una manera que sea fiel con nuestra misión”. Agregó OpenAI que, “por ejemplo, podríamos aplicar nuestra tecnología para avanzar en la investigación científica, mejorar la logística, agilizar tareas de traducción y resumen, y estudiar y mitigar el daño civil”.


OpenAI resaltó que “todo el trabajo que hagamos en este ámbito continuará pasando por un riguroso proceso de revisión interna”.


En ese sentido, OpenAI resaltó que dado que la inteligencia artificial es una tecnología que puede fortalecer o debilitar los valores democráticos, las democracias deben ser los países que sigan teniendo el liderazgo en el desarrollo de la inteligencia artificial.


Esto, “guiados por valores como la libertad, la justicia y el respeto por los derechos humanos”.


Asimismo, OpenAI recordó los límites para su colaboración que antes vimos, en el sentido que “las políticas de uso de OpenAI prohíben que alguien utilice nuestra tecnología para dañar personas, destruir propiedades o desarrollar armas”.


Además, señalaron que en los últimos meses también han desarrollado un marco para evaluar posibles asociaciones de seguridad nacional, incluyendo un conjunto de valores para guiar este trabajo.


Agregaron que cada caso de uso potencial se evalúa a través de un proceso de evaluación formal dirigido por sus equipos de Política de Productos y Seguridad Nacional, para asegurar que estén alineados con las políticas y los valores de OpenAI.


Así señalaron que “los valores que guían nuestro trabajo en seguridad nacional incluyen:


(A) Valores democráticos: Creemos que la inteligencia artificial se debe desarrollar y usar de manera que promueva la libertad, proteja los derechos individuales y fomente la innovación. Creemos que esto requerirá tomar medidas concretas para democratizar el acceso de la tecnología y maximizar sus beneficios económicos, educativos y sociales.


(B) Seguridad: Nuestro objetivo es proteger a las personas del daño. Queremos que la inteligencia artificial se use para mitigar riesgos, mejorar la seguridad y salvaguardar los derechos humanos. Y evaluamos rigurosamente todas las aplicaciones potenciales para asegurarnos de que se alineen con este principio.


(C) Responsabilidad: [Esto entendido en el sentido de uso responsable]. Creemos que la inteligencia artificial debe usarse para el bien común. Nuestras políticas prohíben el uso de la inteligencia artificial para causar daño o infligir derechos básicos, y aplicamos esto rigurosamente a todas las asociaciones potenciales, especialmente en áreas sensibles como la seguridad nacional.


(D) Accountability: [Esto es, responsabilidad en el sentido del contexto de la indelegabilidad del uso responsable de la inteligencia artificial]. Los sistemas de inteligencia artificial deben desarrollarse y desplegarse con responsabilidad desde su núcleo. Creemos que todas las aplicaciones de inteligencia artificial, especialmente aquellas que involucran al gobierno y la seguridad nacional, deben estar sujetas a supervisión, directrices claras de uso y estándares éticos”.


OpenAI también señaló algunos ejemplos de colaboraciones conformes a su misión en los términos que hemos señalado.


Por ejemplo, las colaboraciones con el gobierno de Estados Unidos en materia de ciberseguridad, las colaboraciones para reducir la carga administrativa de USAID o la asociación de Investigación en biociencias con el Laboratorio Nacional de Los Álamos.


Pero más revelador a largo plazo que este comunicado de OpenAI es una columna de opinión que publicó Sam Altman, su CEO, en el Washington Post, en julio de este año.


Ahí escribió que “no hay una tercera opción” entre que “Estados Unidos y sus aliados promuevan una inteligencia artificial global que extienda los beneficios de la tecnología y abra su acceso” o que sea “un mundo autoritario donde naciones o movimientos que no comparten nuestros valores usen la inteligencia artificial para consolidar y expandir su poder”.


A partir de esto, Altman muestra con claridad estratégica su visión sobre el asunto. Señala que “si queremos asegurar que el futuro de la inteligencia artificial beneficie al mayor número de personas posible, necesitamos una coalición global liderada por Estados Unidos y de países con ideas afines, y una nueva estrategia innovadora para lograrlo”, para lo cual “los sectores público y tecnológico de Estados Unidos deben acertar en cuatro áreas importantes para asegurar la creación de un mundo moldeado por una visión democrática de la inteligencia artificial”.


Estas áreas, señala Altman, son: (1) asegurar la prevalencia de los modelos de inteligencia artificial de Estados Unidos, (2) asegurar la infraestructura necesaria, (3) una diplomacia comercial para la inteligencia artificial, y (4) “necesitamos pensar creativamente sobre nuevos modelos para establecer normas en el desarrollo y despliegue de la inteligencia artificial con un enfoque particular en la seguridad, y en asegurar un papel para el sur global y otras naciones que han sido históricamente marginadas”.


En la publicación en X, en donde Altman promovió esta columna, señaló que:


“A partir de ahora el progreso de la inteligencia artificial será inmenso y será un tema crítico de seguridad nacional. Escribí un artículo de opinión para el Washington Post sobre por qué Estados Unidos necesita mantener su liderazgo en el desarrollo de la inteligencia artificial, en lugar de dejar un vacío para gobiernos autoritarios”.


Su visión, entonces, a mi modo de ver, es bastante clara: Las empresas que dominan la inteligencia artificial en Estados Unidos deben trabajar con el gobierno de manera muy estrecha, bajo unos parámetros muy claros para asegurar que la inteligencia artificial, la carrera por la inteligencia artificial, sea ganada por los países democráticos, para lo cual deben contar, entre otros, con una coalición de países con valores similares.


Otro ejemplo de una semanas antes al memorando de la Casa Blanca en ese sentido fue la Cumbre REAIM (Responsible AI in the Military Domain) sobre la necesidad de una gobernanza clara y responsable en el uso de la inteligencia artificial en el ámbito militar.


En esta cumbre, celebrada en Seúl, Corea, en septiembre de este año, la segunda de su tipo, siguiendo la realizada el año pasado en La Haya, cerca de 60 países, incluido Estados Unidos, respaldaron un plan de acción, no vinculante, para regular el uso responsable de la inteligencia artificial en operaciones militares.


Entre otros, destacaron la importancia de la inteligencia artificial en este ámbito. También destacaron que su desarrollo e implementación debe ser en el marco de los derechos humanos y que incluso ello puede mejorar su protección. Y resaltaron también la importancia de la indelegabilidad de la responsabilidad humana en la toma de decisiones.


4. Propuestas Especificas


Vamos ahora con las propuestas específicas. Como lo señaló el expresidente Uribe, “Si en algún país es prioritaria la inteligencia artificial en seguridad es en el nuestro”.


En efecto, y teniendo en cuenta el grave deterioro de la seguridad en Colombia, y con una fuerza pública como la colombiana, con las inmensas capacidades desarrolladas durante décadas, y el inmenso coraje, profesionalismo, experiencia, valores democráticos y patriotismo que tiene, si a ello se le suman estas nuevas tecnologías, se potencializarán al máximo sus capacidades para devolverle la seguridad a la patria, y así, la garantía de los derechos intrínsecos e inalienables a los que tenemos derecho todos los seres humanos por el solo hecho de serlo: la vida, la libertad y la propiedad.


Esto, por supuesto, sobre la base de la debida motivación a la fuerza pública de un gobierno serio y comprometido con la seguridad, que la quiera, que la respete y que le sea leal en el marco del Estado de derecho.


A continuación, presentaré entonces una serie de propuestas específicas, las cuales, para ser efectivas, deben, reitero, ser aplicadas sobre la base de las más firmes y decididas políticas en seguridad en el marco del Estado de derecho y de los ideales de la Ilustración que hemos visto en los episodios anteriores.


En línea con lo que señala la introducción, espero de este modo contribuir al debate informado sobre estos temas. Estas propuestas, por supuesto, pueden ser mejoradas, reemplazadas o complementadas.


Aquí de lo que se trata es de contribuir a una discusión informada sobre cómo aprovechar esta importante tecnología revolucionaria para devolverle la seguridad a Colombia y a los colombianos.


Antes de hacerlo, resalto que no soy experto en seguridad y, por lo tanto, no conozco en detalle el estado actual de las herramientas tecnológicas colombianas.


Lo que a continuación planteo se basa en lo que hemos visto y de lo que he podido investigar. Por razones de tiempo y de foco, esto posiblemente las profundicemos en otros escenarios.


Espero entonces que los expertos en seguridad puedan apoyarse en lo que hemos visto para formular para el contexto colombiano nuevas, mejores y más detalladas propuestas de las que aquí se presentan.


Los cambios en las tecnologías, los desarrollos en Estados Unidos y en otras democracias, así como su utilización en conflictos como el del Medio Oriente o el de Ucrania, podrán ir dando nuevas luces sobre cómo aprovecharlas.


Colombia debe estar entonces muy atenta a lo que ocurra allí para poder aprender de esas experiencias y adoptar innovaciones específicas para nuestras circunstancias.


Estas herramientas deberán desarrollarse e integrarse con los sistemas e instituciones pertinentes.


Para la presentación de cada una de estas propuestas enunciaré la propuesta, haré una breve descripción y señalaré sus posibles impactos.


1. Marco Normativo


Primera propuesta: Marco normativo que promueva la innovación y el aprovechamiento al máximo de la inteligencia artificial en seguridad, en el marco del Estado de derecho y de manera responsable.


Descripción: Desarrollar un marco regulatorio específico para el uso de la inteligencia artificial en seguridad, inspirado en los enfoques ambiciosos, realistas y responsables que promueve Estados Unidos.


Impactos esperados: (1) Promover la innovación y el aprovechamiento al máximo de la inteligencia artificial en seguridad en el marco del Estado de derecho y de manera responsable. Y (2) crear las condiciones para poder integrarnos efectivamente a las iniciativas en materia de seguridad y defensa de los países democráticos liderados por Estados Unidos, a las que también podremos aportar con nuestra experiencia en materia de seguridad y defensa.


2. Buscar alianzas y colaboraciones


Segunda propuesta: Buscar alianzas con gobiernos y colaboraciones con empresas que están a la vanguardia en estos temas.


Descripción: Buscar alianzas con los gobiernos de Estados Unidos, Israel y Ucrania, así como colaboraciones con las grandes tecnológicas de Estados Unidos como OpenAI o Microsoft, entre otras. Y con las startups y empresas de otros países como Israel y Ucrania, que nos permitan aprovechar su tecnología para recuperar la seguridad en Colombia en el marco del Estado de derecho.


Esto, por supuesto, se extendería a otros gobiernos y otras empresas nacionales e internacionales, según se vayan desarrollando los acontecimientos.


Impactos esperados: (1) Fortalecer nuestras capacidades en seguridad aprovechando la inteligencia artificial. (2) Aportar a la alianza de los países democráticos las capacidades que desarrollamos. Y (3) crear las condiciones para poder integrarnos efectivamente a las iniciativas en materia de seguridad y defensa de los países democráticos liderados por Estados Unidos, a las que, reitero, también podremos aportar con nuestra experiencia en materia de seguridad y defensa.


3. Chatbots Inteligentes para Operativos de Seguridad en el marco del Estado de derecho


Tercera propuesta: Chatbots inteligentes para operativos de seguridad en el marco del Estado de derecho.


Descripción: Crear chatbots que asistan a la Fuerza Pública antes y durante los operativos.


Podrían guiar a los oficiales durante los operativos y responder preguntas legales en general y sobre derechos humanos en particular.


Los chatbots inteligentes para el efecto ayudarían a complementar los análisis y a proponer medidas efectivas.


Estas funciones de los chatbots inteligentes se aplicarían a todas las otras propuestas que incluyan la creación de chatbots. A manera de aclaración, un chatbot es un “ChatGPT”. sino que específico para estos temas.


Impacto esperado: (1) Mejora de la efectividad de los operativos. (2) Mayor cumplimiento legal. Y (3) mayor protección de los derechos humanos.



4. Sistema de IA para el Control Territorial y Combatir el Narcotráfico


Cuarta propuesta: Sistema de Inteligencia artificial para el control territorial y combatir el narcotráfico.


Descripción: Utilización de drones con visión por computadora y análisis autónomo bajo inteligencia artificial para monitorear zonas que han vuelto a dominar los grupos delincuenciales, así como para identificar y monitorear cultivos ilícitos y rastrear rutas de narcotráfico desde el aire.


También se podrían crear chatbots para recepción de denuncias, para el análisis de la información y para tomar mejores decisiones.


Este sistema centralizaría la información de la fuerza pública y facilitaría decisiones rápidas.


Impacto esperado: (1) Ayuda a la recuperación del control territorial y reducción del riesgo para el personal en el terreno, así como un mayor control sobre los movimientos ilegales. (2) Mejora en la eficiencia de las operaciones antinarcóticos. (3) Menor riesgo para el personal en el terreno. Y (4) disminución de costos.


5. Sistema de IA para la Prevención del Crimen y Vigilancia Inteligente


Quinta propuesta: Sistema de inteligencia artificial para la prevención del crimen y vigilancia inteligente.


Descripción: Utilización de drones y cámaras de vigilancia con visión por computadora que podrían identificar comportamientos sospechosos automáticamente y analizar patrones delictivos en tiempo real, anticipando crímenes y optimizando la distribución de los recursos policiales en zonas urbanas y rurales.


Creación de chatbots similares a los de la propuesta anterior.


Este sistema también centralizaría la información de la fuerza pública y facilitaría decisiones rápidas.


Impacto esperado: (1) Prevención de delitos en tiempo real. (2) Aumentar la eficiencia en situaciones críticas. Y (3) aumento de captura de los responsables.


6. Sistema de IA para Garantizar la Seguridad durante las protestas, en el marco del Estado de derecho


Sexta propuesta: Sistema de Inteligencia artificial para garantizar la seguridad durante las protestas, en el marco del Estado de derecho.


Descripción: Utilización de drones y cámaras de vigilancia equipados con inteligencia artificial para monitorear protestas y movilizaciones sociales.


Creación de chatbots similares a los de la iniciativa anterior.


Estos sistemas, asimismo, centralizarían la información de la fuerza pública y facilitarían la toma de decisiones rápidas.


Impactos esperados: (1) Mejora en la seguridad. (2) Reducción de enfrentamientos. (3) Reducción de los daños. (4) Mejoras en capturas de quienes cometan delitos. Y (5) mayor protección de los derechos humanos de todos los intervinientes.


7. Sistema de IA en Ciberseguridad para Infraestructuras Críticas y Defensa Nacional


Séptima propuesta: Sistema de Inteligencia artificial en ciberseguridad para infraestructuras críticas y defensa nacional.


Descripción: Desarrollar herramientas de inteligencia artificial para detectar ciberamenazas en tiempo real y proteger infraestructuras críticas. Creación de chatbots similares a los anteriores.


Y este sistema también centralizaría la información de la Fuerza Pública y de, por supuesto, las autoridades pertinentes, que facilitaría decisiones rápidas.


Impactos esperados: Fortalecer la resiliencia del Estado frente a ciberataques y ataques híbridos que los complementen, como secuestros masivos, paros armados o ataques a la infraestructura.


Con estas propuestas, por supuesto mejorables, y otras que se planteen, Colombia tiene la oportunidad de recuperar con determinación, y en el marco del Estado de derecho, su seguridad física para sus ciudadanos y para todos aquellos que se encuentren en el territorio nacional.


Pero para ello es necesario tener liderazgos políticos firmes, democráticos, coherentes, leales, y por lo tanto, confiables, que inspiren y marquen el camino de manera clara y sin ambigüedades a la fuerza pública, al gobierno y a la ciudadanía en su conjunto.


A continuación veremos algunos ejemplos de ese tipo de liderazgo.


III. TERCERA PARTE: LIDERAZGO POLÍTICO FIRME, DEMOCRÁTICO, COHERENTE, LEAL Y, POR LO TANTO, CONFIABLE


1. Ronald Reagan


Comencemos con el caso de Ronald Reagan. Reagan es un ejemplo de liderazgo con ideas y convicciones firmes, claras y profundas, con sentido de la historia. Una visión clara, bajo un liderazgo firme, coherente, leal, y por lo tanto, confiable en defensa de la vida, la libertad, la democracia, la propiedad y la paz.


Si bien el expresidente de Estados Unidos no estuvo en una situación de combate en caliente significativa -de hecho, uno de sus grandes logros fue precisamente haberle ganado la Guerra Fría al comunismo “sin disparar un solo tiro”, como famosamente lo dijo Margaret Thatcher en su funeral- su audacia y su coraje para pensar en grande, con ambición patriótica y de manera independiente, son ejemplos del aprovechamiento de la innovación para defender la libertad y la democracia, y lograr la seguridad y la paz.


En el caso de Reagan, aunque apoyó decididamente la modernización de todo el aparato militar, su mayor legado para los efectos de este episodio no es que haya aprovechado alguna tecnología revolucionaria, sino que gracias a su visión, coraje, talento, sentido de la historia, y reitero, habilidad para pensar en grande, con ambición patriótica y de manera independiente, inició el proceso de creación de una tecnología revolucionaria.


Se trata del Strategic Defense Iniciative o SDI, que en español se traduce como Iniciativa de Defensa Estratégica.


Pero dejemos que sea el propio Reagan quien nos cuente la lógica que estuvo detrás de su SDI, tal como nos lo narra en su libro de memorias:


“Una cierta cantidad de mitología surgió en torno a la Iniciativa de Defensa Estratégica (SDI), el programa que anuncié en 1983, para desarrollar un escudo defensivo contra misiles nucleares. No fue concebido por científicos, aunque ellos se unieron y contribuyeron enormemente a su éxito.


Entré en el cargo con un prejuicio claro contra nuestro acuerdo tácito con la Unión Soviética sobre los misiles nucleares.


Me refiero a la política MAD -’Destrucción Mutua Asegurada’- la idea de que la disuasión proporcionaba seguridad mientras ambos tuviéramos el poder de destruirnos mutuamente con misiles nucleares si uno lanzaba un ataque primero.


De alguna manera, esto no me parecía algo que te permitiera dormir tranquilo por la noche.


Era como tener a dos vaqueros de pie en una cantina apuntándose con dos pistolas a la cabeza permanentemente.


Tenía que haber una mejor manera.


Al principio de mi primer mandato, convoqué una reunión del Estado Mayor Conjunto -es decir, nuestros líderes militares- y les dije: ‘Cada arma ofensiva inventada por el hombre ha llevado a la creación de una defensa contra ella. ¿No es posible que en esta era tecnológica podamos inventar un arma defensiva que intercepte armas nucleares y las destruya en cuanto salgan de sus silos?’


Se miraron entre ellos y luego pidieron reunirse brevemente. Poco después, regresaron de su deliberación y dijeron: ‘Sí, es una idea que vale la pena explorar’.


Mi respuesta fue: ‘Hagámoslo’.


Así nació la SDI y muy pronto algunos en el Congreso y en la prensa la bautizaron como ‘Star Wars’”.


En las charla sobre liderazgo que el expresidente Uribe ha dado en los últimos meses, y que se encuentran en su canal de YouTube, enseña que una de las principales características de los grandes líderes es la claridad en la visión estratégica, para lo cual cita como un ejemplo positivo al Libertador Simón Bolívar.


En lo que se refiere a la geopolítica, en el caso de Reagan, él tenía muy claro que quería ganar la Guerra Fría, no mantener un statu quo, sino ganar la Guerra fría a la extrema izquierda comunista y evitar una guerra nuclear.


Para lograr estos dos objetivos, también tenía muy claro que la única forma racional de lograrlos era tener más armas, base de su estrategia de “Paz desde la Fuerza”.


Esta “Paz desde la Fuerza”, que es la única forma racional de conseguirla, insisto, porque es el único lenguaje que entienden los totalitarios y la delincuencia organizada, dejó al mundo mucho más seguro, pacífico y democrático, en donde el SDI fue uno de sus principales componentes.


Para el caso colombiano habría que complementarla con el “Corazón Grande” que plantea el expresidente Uribe. O mejor, y tal como fue el lema oficial de su primera campaña presidencial, “Mano Firme, Corazón Grande”, que, a mi modo de ver, no es otra cosa que un Estado social de derecho en todo el territorio nacional, tan firme como es posible en materia de seguridad en el marco del Estado de derecho, austero, eficaz y desburocratizado.


Volviendo con Reagan, en su momento -e increíblemente también después- esta idea fue objeto de ridiculizaciones que calificaban el SDI como fantasioso e incluso irresponsable. Pero si había quienes no pensaban que el SDI era propiamente una locura eran los comunistas soviéticos.


Y si bien la tecnología necesito tiempo para desarrollarse, fue clave para sentar a los comunistas en la mesa.


En mi libro “Defensa de la Libertad y de la Democracia: El Centro Político y los Extremos Explicados”, narro el rol del SDI en la negociación de Reagan con los soviéticos bajo el liderazgo de Gorbachov, que condujo a la mayor reducción de armas nucleares de la historia hasta el momento, base para las subsiguientes.


Más aún, esta tecnología recientemente salvó millones de vidas. Como lo cuenta Daniel Henninger en su columna para el Wall Street Journal en abril de este año,


“Por consenso general, el héroe del fin de semana pasado fue el sistema de defensas de Israel. El mundo vio en tiempo real la noche del sábado como el compromiso de Reagan con interceptar misiles protegió a la población israelí de más de 300 drones y misiles balísticos y de cruceros disparados contra varias ciudades en Israel”.


Como antes lo vimos, hay quienes consideran el Domo de Hierro de Israel como el sistema de defensa con inteligencia artificial más avanzado del mundo.


Agrega Henninger,


“Israel, con una comunidad científica enfocada en la supervivencia del país, desarrolló un sistema de defensa de misiles por capas” (....). “Dos años después del anuncio de Reagan, Israel firmó un memorando de entendimiento con Estados Unidos para desarrollar defensas antimisiles. Los frutos de esa colaboración de cuatro décadas no podría ser más claros”.


De modo que si en algún momento creemos que estas propuestas específicas que hemos planteado de aplicación de la inteligencia artificial para ayudar a recuperar la seguridad, y así, el derecho a la vida, la libertad, la propiedad, y la democracia y la paz en todo el territorio nacional, nos parecen irrealizable o fantasiosas, recordemos las lecciones de Reagan sobre la importancia de tener el coraje para pensar en grande con ambición patriótica, y por sí mismo, con ideas y convicciones firmes, claras y profundas, con sentido de la historia, con una visión estratégica clara, bajo un liderazgo firme y democrático, coherente, y por lo tanto, confiable.


2. Winston Churchill


Pasemos ahora al caso de Winston Churchill, quien también promovió la innovación para los asuntos de seguridad y defensa.


Churchill es también otro ejemplo de este tipo de liderazgo. Tipo de liderazgo que nos enseña sobre la importancia de tener el coraje para pensar en grande y por sí mismo, con ideas y convicciones firmes, claras y profundas, con sentido de la historia, una visión clara bajo un liderazgo firme, democrático, coherente, leal y, por lo tanto, confiable en defensa de la vida, la libertad, la democracia, la propiedad y la paz.


De hecho, podría decirse que Churchill es el arquetipo de líder político que promueve y adopta los avances tecnológicos para los asuntos de seguridad y defensa.


El historiador Andrew Roberts nos recuerda en su magnífica biografía sobre Churchill que él es considerado el padre del tanque y que también fue el fundador de la institución que hoy se conoce como la Fuerza Aérea de su país.


De acuerdo con Roberts,


“En parte para ahorrar dinero, pero también debido a su mente naturalmente inquieta, Churchill estaba constantemente buscando avances tecnológicos en el ámbito militar”.


Agrega Roberts que


“Ya en febrero de 1909, muy al comienzo de la historia de la aeronáutica, Churchill comenzó a pensar en la aplicación militar del poder aéreo cuando le dijo al Subcomité de Navegación Aérea del Comité de Defensa Imperial lo siguiente: ‘El problema del uso de los aviones es uno de gran importancia y deberíamos ponernos en comunicación con el señor Wright en persona y aprovechar sus conocimientos’”.


Los hermanos Wright son conocidos por haber sido los inventores del avión.


Finalmente, sobre los aviones, Roberts también nos recuerda lo siguiente: “Churchill seguiría siendo un firme defensor del poder aéreo estableciendo el Royal Naval Air Service tan pronto como tuvo la oportunidad y abogando por una financiación adecuada para el Royal Fly Corps y su sucesora, la Royal Air Force”.


En cuanto a los tanques. Robert nos cuenta que Churchill es considerado el padre del tanque por el decidido apoyo que le dio en sus inicios.


En ese sentido, Roberts nos recuerda que Churchill


“Destinó la enorme suma de 70.000 £ de la época del presupuesto del Almirantazgo para investigar el concepto del tanque, a pesar de ser claramente un arma terrestre. Su temprano, firme y continuo apoyo a su desarrollo hace plausible describirlo como el padre del tanque”.


Roberts también nos cuenta que “un general llegó a describir el tanque como ‘una locura Winston’, pero esto no lo desanimó en absoluto”.


Así, para Andrew Roberts,


“La fascinación de Churchill por la ciencia y las nuevas armas, de las cuales el avión y el tanque fueron solo los ejemplos más destacados, fue otra preparación clave para su mandato como Primer Ministro”.


Pero esta mentalidad de innovar para integrar y aprovechar al máximo las nuevas tecnologías para los temas de seguridad y defensa, no se limita a las armas. Por el contrario, es una mentalidad abierta y flexible dentro de un propósito claro, el cual se impregna en todas las áreas y en todos los niveles. En su caso, el objetivo fue ganarle la guerra a la extrema derecha nazi.


Un ejemplo de ello es el apoyo al grupo de criptógrafos que descifraron los mensajes encriptados de los nazis.


Roberts nos lo recuerda así:


“El 21 de octubre, cuatro importantes criptógrafos de Bletchley Park, incluidos Alan Turing y Gordon Welchman, escribieron directamente a Churchill para quejarse de los cuellos de botella en el personal que estaban afectando peligrosamente la producción de las “bombes”, las cuales eran unos dispositivos eléctricos necesarios para sus máquinas de cálculo.


La carta fue entregada personalmente al brigadier Harvey Watt en el número 10 de Downing Street por Stuart Milner-Barry, de la legendaria Hut 6, donde se realizaba gran parte del mejor trabajo de los criptógrafos.


Churchill escribió de inmediato una nota con la indicación ‘Atención Inmediata’ dirigida a Ismay, ordenando que los criptógrafos de Bletchey Park recibieran todo lo que necesitaran ‘con prioridad extrema‘ y solicitando un informe cuando se hubiera cumplido. En cuestión de días se proporcionó lo solicitado y la burocracia del Ministerio de Guerra entendió la influencia que tenían con el Primer Ministro, lo que facilitó asignaciones futuras”.


3. Álvaro Uribe Vélez


El expresidente Álvaro Uribe Vélez ejemplifica también este tipo de liderazgo promotor de la innovación para los asuntos de seguridad y de defensa. El expresidente colombiano es otro ejemplo de liderazgo firme, democrático, coherente, leal y, por lo tanto, confiable en defensa de la vida, la libertad, la democracia, la propiedad y la paz. Y quien también promovió la innovación para los asuntos de seguridad y defensa, sobre la base de una visión clara, con coraje, ideas y convicciones firmes, claras y profundas, y con sentido de la historia.


En su caso, un ejemplo de esa mentalidad abierta y flexible dentro de un propósito claro que se impregnó en todas las áreas y a todos los niveles, es la famosa Operación Jaque.


El expresidente nos lo cuenta así en su libro, en el que además le suma el valor de la lealtad, no solo como un valor en sí mismo, sino también para promover la innovación en materia de seguridad y de defensa:


“Confieso que deposito toda la confianza en quienes laboran conmigo. Incluso paso de la defensa de sus tareas a la defensa de sus personas. He preferido errar por extremo de lealtad que por carencia. Y por regla general he sido correspondido y con creces.


Hay un paradigma de lealtad: La Operación Jaque.


Tras la eliminación de Raúl Reyes, algunos en la prensa colombiana conjeturaron con que uno o más de nuestros comandantes militares se verían obligados a renunciar.


No fue así: Los apoyé públicamente y asumí toda la responsabilidad, tal y como lo he hecho siempre. Cuando pasó la tormenta, los comandantes se sintieron fortalecidos: Habían visto una vez más que tenían la confianza y el apoyo del pueblo colombiano y del Presidente.


Esto les demostró que podían pensar en términos audaces, creativos y arriesgados, sin temor a perder sus empleos o sufrir perjuicios.


Por eso no fue casual que pocas semanas después de haber dado de baja a Reyes, me propusieran un plan extraordinario y sumamente audaz para rescatar a los secuestrados”.


La Operación Jaque, cuenta el expresidente Uribe, “fue una operación sin igual en la historia militar. Los quince secuestrados fueron liberados y los cabecillas de las Farc sometidos sin ningún tipo de bajas. No hubo un solo disparo”.


El expresidente también cuenta en sus memorias varios ejemplos sobre cómo la tecnología fue clave para el restablecimiento y el fortalecimiento de la seguridad en Colombia durante su gobierno.


No obstante, en su libro también nos narra la siguiente historia que invita a no depender en exceso de la tecnología, además de resaltar lo esencial del apoyo ciudadano para recuperar y fortalecer la seguridad:


“Al final de nuestra presidencia, más de 4 millones de personas en todo el país -aproximadamente uno de cada diez colombianos- suministraban algún tipo de información al Estado. Y si bien por desgracia hubo casos en que los bandidos descubrieron y asesinaron a informantes, en general les brindamos una buena protección.


Nos tomábamos muy en serio su seguridad: En cada ciudad o municipio había un alto funcionario encargado de garantizar la eficiencia del sistema de seguridad y de controlar el acceso a la lista de informantes para impedir que cayera en manos equivocadas.


Este trabajo de inteligencia, apoyado en fuentes humanas, fue muy valioso y dio nuestras fuerzas armadas una mayor perspectiva.


En efecto, en los últimos tiempos algunos comandantes militares venían privilegiando la tecnología -de los dispositivos de escucha y otros similares- en detrimento de fuentes humanas efectivas y tradicionales (que en última instancia serían quienes nos llevarían hasta los secuestrados y nos permitirían desmantelar el liderazgo de los grupos armados, entre otros avances necesarios.

Impulsamos la combinación de la inteligencia técnica con la información humana, distribuimos mejor el recurso humano existente y aumentamos la disponibilidad de soldados y policías”.


Esta historia nos da una enseñanza que es de la mayor pertinencia para los efectos de este episodio. Como vimos en la primera parte, la inteligencia artificial es principalmente un aumentador de las capacidades humanas y no un reemplazo de los humanos.


Y la verdad es que es una reflexión aplicable no solo a la inteligencia artificial, sino a la tecnología en general, y que me recuerda la reflexión que sobre ella hizo Steve Jobs en varias entrevistas sobre un artículo que había leído de niño sobre la eficiencia del movimiento de diferentes animales.


En una de ellas dijo lo siguiente:


“El cóndor ganó. Quedó en la cima de la lista, superando a todos los demás, mientras que los humanos aparecimos aproximadamente en un tercio de la lista.


Pero -agrega el fundador de Apple- alguien tuvo la imaginación de medir la eficiencia de un ser humano en una bicicleta. El humano en bicicleta dejó al cóndor completamente fuera de la lista. Y eso me causó una gran impresión: Que nosotros los humanos somos constructores de herramientas, y que estas herramientas amplifican nuestras habilidades inherentes a niveles espectaculares. Para mí, una computadora siempre ha sido una bicicleta para la mente, algo que nos lleva mucho más allá de nuestras capacidades naturales”.


Esta historia de Steve Jobs es entonces muy importante para entender el rol de la tecnología, incluida la inteligencia artificial, para la seguridad. Nos muestra que la inteligencia artificial, como todas las demás tecnologías, al final no son más que herramientas que lo que hacen es aumentar nuestras capacidades de manera cada vez más espectacular, al punto de volvernos casi “biónicos”, como lo señalé en la primera parte, al menos desde la perspectiva conocida al momento de poderse utilizar esa nueva tecnología.


Finalmente, la reflexión del expresidente Uribe sobre la lealtad y el afecto a la fuerza pública, que tanto ha promovido, es un patrón que se encuentra en todos los grandes líderes en asuntos de seguridad y defensa, entre ellos todos aquellos a los que me he referido acá, así como Abraham Lincoln.


Lincoln es, además, otro gran ejemplo de adaptación de la tecnología para la seguridad y la defensa, el cual veremos a continuación.


4. Abraham Lincoln


Abraham Lincoln es otro ejemplo de liderazgo firme, democrático, coherente, leal y, por lo tanto, confiable en defensa de la vida, la libertad, la democracia, la propiedad y la paz. Y quien también promovió la innovación para los asuntos de seguridad y defensa sobre la base de una visión clara, con coraje, ideas y convicciones firmes, claras y profundas, con sentido de la historia.


Lincoln fue el presidente de Estados Unidos que ganó la Guerra Civil, lo cual le permitió mantener la unión de su país e iniciar el proceso de liberación de los esclavos.


Para este esfuerzo fue clave la adopción por parte de él del telégrafo, la tecnología de la época.


En ese sentido, el profesor Donald T. Phillips, en su libro “Lincoln On Leadership”, nos cuenta lo siguiente:


“Para tomar decisiones oportunas y confiables Lincoln necesitaba acceso a información. Básicamente, se apoyaba en tres fuentes principales: informes de confidentes y asesores de confianza, su práctica de visitar el campo de batalla, y la tecnología de comunicación moderna de la época, el telégrafo.


En lugar de esperar en la Casa Blanca a que un mensajero le trajera noticias del progreso en batallas clave, Lincoln prefería estar en la Oficina del Telégrafo del Departamento de Guerra, mirando por encima del hombro del descifrador y recibiendo la información tan pronto como llegaba.


Esto lo colocaba en una posición donde podía tomar decisiones rápidas sin prácticamente ningún retraso.


Al recibir actualizaciones de sus generales, el presidente podía redactar un telegrama y entregarlo al mensajero más cercano para transmitir sus órdenes al campo de batalla.


No hay duda de que el estilo de Lincoln era efectivo, ni de que ganó batallas y salvó incontables vidas actuando con rapidez y decisión”.


IV. CUARTA PARTE: CONCLUSIONES Y REFLEXIONES FINALES


Los ejemplos de estos líderes nos muestran cómo la tecnología, y en un sentido más amplio, la innovación, es esencial para la seguridad, y así, para la defensa de la vida, la libertad, la democracia, la propiedad y la paz.


Y también nos muestra que esa opción solo es realmente efectiva bajo líderes muy serios, muy firmes y muy comprometidos con la seguridad por convicción y no por oportunismo.


El talante político del presidente Gustavo Petro no solo es extremista y populista de izquierda, sino también de izquierda anarquista.


Esa es simple y llanamente su naturaleza.


Y sus políticas en seguridad y sus resultados en esa área son simple y llanamente también el resultado lógico de ello.


En tiempos electorales, y en especial, dada la realidad del deterioro de la seguridad en el país y la consecuente molestia ciudadana, probablemente veremos a los candidatos haciendo todo tipo de propuestas en seguridad.


Probablemente lo harán incluso los que de alguna forma u otra nos trajeron hasta este punto, por activa o por pasiva y/o que deterioraron la seguridad en el país y en las ciudades.


Y lo harán por oportunismo o conveniencia política, abogando por la seguridad al mismo tiempo que tratarán de “guerreristas” o de “extremos”, implicando que son extrema derecha, a quienes abogarán con firmeza y convicción por la seguridad.


De hecho, en mi libro “Defensa de la Libertad y de la Democracia: El Centro Político y los Extremos Explicados”, recuerdo que tanto a Churchill como a Reagan y a Uribe los de siempre los tildaban de “guerreristas”.


Pero recuerdo también que esa firmeza en seguridad, en el marco del Estado de derecho, con seriedad, claridad, lealtad y patriotismo, como fue en el caso de todos ellos, la historia, una y otra vez, ha mostrado que deriva en más libertad, más democracia, más seguridad, más prosperidad y más paz.


Como vimos, cualquier propuesta política en seguridad no es más que carreta si no está basada en un firme, coherente, leal y, por lo tanto, confiable liderazgo democrático en seguridad, liderazgo que tendrá como resultado lógico políticas y resultados serios en seguridad.


Los lobos con piel de oveja, por su propia naturaleza, no los conseguirán, tal como ha sido demostrado una y otra vez por los hechos más recientes y por la historia. Es simple y llanamente el resultado lógico de su naturaleza, de su ser, por más que intenten presentar lo contrario para satisfacer sus ambiciones políticas.


Sin lealtad en el marco del Estado de derecho no hay confianza. Y sin confianza, no hay Seguridad Democrática, ni Paz Ilustrada.


Despedida y Agradecimientos:


Bueno, muchísimas gracias por habernos visto, oído o leído. Es un verdadero placer para mí presentarles estas ideas en defensa de la libertad y de la democracia en Colombia. Como siempre, si les gustó este episodio, no duden en suscribirse, en darle me gusta y compartirlo.


Nos vemos muy pronto en un nuevo episodio. Muchísimas gracias.


Jorge Enrique Gómez Pardo, 2024 Todos los derechos reservados




5 views
bottom of page