La Inteligencia Artificial (IA), un término omnipresente hoy en día, se filtra en nuestra vida rutinaria sin ser apreciada. Sin embargo, para muchos, su jerga compleja prosigue siendo desconcertante.

Este artículo separa el léxico enigmático de la IA y descubre las ideas que dan forma al alegato. Nuestro recorrido empieza con un término que lúcida una enorme fascinación: “Inteligencia General Artificial” (AGI).

IA general: un nuevo amanecer de habilidades cognitivas

La Inteligencia General Artificial (AGI) significa la era en la que las máquinas podrían imitar la inteligencia humana en su totalidad, no solo en labores especializadas.

AGI se extiende alén de los límites de los sistemas de IA existentes. Por ejemplo, la IA actual puede sobresalir en el juego de ajedrez, mas puede fallar en la entendimiento del lenguaje natural.

AGI, por otra parte, se amoldaría de manera perfecta a distintas tareas, desde redactar sonetos hasta diagnosticar enfermedades, como un humano. Piense en un AGI como un erudito digital, que domina distintos campos sin precisar reprogramación.

Alineación: la armonía entre el hombre y la máquina

La alineación, en el contexto de la IA, significa asegurar que los objetivos de la IA coincidan de forma armoniosa con los nuestros. Esto se vuelve principal cuando consideramos las implicaciones de la desalineación.

Visualice un futuro en el que un cuidador de AGI malinterprete su labor de “mantener a los ancianos saludables” y los recluya en el interior indefinidamente para prevenir enfermedades. Muestra la necesidad vital de una alineación precisa, eludiendo daños mientras que aprovecha el poder de la IA.

Statista Inteligencia Artificial

Comportamiento emergente: la innovación impredecible

El comportamiento emergente se refiere a comportamientos nuevos e inopinados que una IA desarrolla por medio de interactúes en su ambiente.

Fascinantes mas intimidantes, estos comportamientos pueden ser renovadores o potencialmente perjudiciales. ¿Recuerdas el de IBM, Watson, que sorprendió a todos al producir juegos con las palabras a lo largo del juego Jeopardy?

Ese es un comportamiento emergente: no planeado, renovador, mas potencialmente disruptivo.

Paperclips y Fast Takeoff: lecciones de responsabilidad

“Paperclips” es una historia con moraleja sobre la malinterpretación de las instrucciones humanas por la parte de la IA con resultados desastrosos.

Esta metáfora pinta una imagen distópica de un AGI que convierte todo el planeta en clips debido a una pequeña falta de comunicación en su propósito.

El término de “Fast Takeoff” transmite una cautela afín. Teoriza un escenario en el que la IA mejora a un ritmo exponencial, lo que lleva a una explosión de inteligencia incontrolable.

Es una llamada de atención para avanzar de forma cuidadosa y responsabilidad en nuestra busca del avance de la IA.

Modelos de adiestramiento, inferencia y lenguaje: los fundamentos de la IA

Estos son los pilares del aprendizaje de la IA. El adiestramiento es como enseñar a un robot, brindándole un sinnúmero de datos para aprender.

Una vez educada, la IA aplica este conocimiento aprendido a datos desconocidos, un proceso conocido como Inferencia. Por ejemplo, un chatbot aprende a través del adiestramiento en conjuntos de datos masivos de conversaciones humanas y después infiere contestaciones apropiadas cuando interacciona con los usuarios.

Los modelos de lenguaje grande, como GPT-3, son ejemplos por antonomasia de esto. Capacitados en distintos textos de Internet, generan texto afín al humano, impulsando aplicaciones desde el servicio al cliente del servicio hasta la creación de contenido.

¿Qué es un GPT?

Después de nuestra exploración de modelos de lenguajes grandes, merece la pena resaltar una serie particularmente influyente en esta categoría: GPT de OpenAI, o Transformador preentrenado generativo.

OpenAI, los autores de este modelo de IA, han desarrollado esta sólida arquitectura que sosten la entendimiento y generación de texto de IA.

GPT, un producto de la investigación de IA de OpenAI, engloba 3 aspectos distintos:

  • En primer sitio, su naturaleza “generativa” le deja realizar productos creativos, desde llenar oraciones hasta escribir ensayos.
  • En segundo sitio, el “preentrenamiento” se refiere a la fase de aprendizaje del modelo, en la que asimila un corpus masivo de texto de Internet, adquiriendo una entendimiento de los patrones del lenguaje, la gramática y los hechos mundanos.
  • Por último, el “transformador” en su nombre apunta a su arquitectura modelo, lo que deja a GPT atribuir una “atención” variable a diferentes palabras en una oración, capturando así la dificultad del lenguaje humano.

La familia GPT entiende múltiples versiones: GPT-1, GPT-dos y GPT-3, y ahora GPT-cuatro, cada versión con capacidades y tamaños cada vez mayores.

OpenAI ChatGPT IA

Parámetros

El panorama de la IA se llenó últimamente con la llegada de GPT-cuatro, el modelo de lenguaje más nuevo y complejo de OpenAI.

Las notables capacidades de GPT-4 han llamado mucho la atención, mas un aspecto que verdaderamente lúcida la curiosidad es su tamaño gigante, definido por sus factores.

Los factores, las entidades numéricas que ajustan el funcionamiento de una red neuronal, son el eje tras la capacidad de un modelo para procesar entradas y producir salidas.

Estos no están cableados, sino se mejoran a través del adiestramiento en grandes conjuntos de datos, encapsulando el conocimiento y el conjunto de habilidades del modelo.

Esencialmente, cuanto mayores son los factores, más matizado, flexible y amoldable a los datos se vuelve un modelo.

Fuentes no oficiales insinúan la pasmosa cantidad de 170 billones de factores para GPT-4. Esto sugiere un modelo uno con cero veces más expansivo que su precursor, el GPT-dos.

Y prácticamente exactamente la misma magnitud más grande que GPT-tres, que contenía uno con quinientos millones y ciento setenta y cinco con cero millones de parámetros, respectivamente.

Sin embargo, esta cantidad prosigue siendo especulativa, ya que OpenAI sostiene en secreto el recuento preciso de parámetros de GPT-cuatro. Este silencio misterioso solo se aúna a la anticipación que rodea el potencial de GPT-cuatro.

Alucinaciones: cuando la IA se toma libertades creativas

Las “alucinaciones” en el lenguaje de la IA se refieren a situaciones en las que los sistemas de IA producen información que no estaba en sus datos de adiestramiento, fundamentalmente ideando cosas.

Un ejemplo humorístico es una IA que sugiere que un pez candela es un mamífero que vive en el océano. Bromas aparte, esto ilustra la necesidad de precaución cuando se confía en la IA, lo que destaca la relevancia de fundamentar las contestaciones de la IA en información verificada.

Descifrando la IA: una alfabetización necesaria

Comprender la jerga de la IA puede parecer un ejercicio académico, mas conforme la IA empapa nuestras vidas, se está transformando de forma rápida en una alfabetización precisa.

Comprender estos términos (AGI, Alineación, Comportamiento emergente, Paperclips, Fast Takeoff, Training, Inference, Large Language Models y Hallucinations) da una base para entender los avances de la IA y sus implicaciones.

Este alegato ya no se restringe a los entusiastas de la tecnología o a los especialistas de la industria: es un diálogo esencial para todos .

A medida que avanzamos cara un futuro infundido por la IA, es imperativo que llevemos adelante esta charla, promoviendo una entendimiento integral del potencial de la IA y sus riesgos.

Desentrañar la complejidad: un viaje, no un destino

Al embarcarse en el viaje para descifrar la IA, uno de forma rápida se percata de que se trata menos de llegar a un destino y más del aprendizaje progresivo.

Este lenguaje artificial, de la misma manera que la propia tecnología, evoluciona sin reposo, promoviendo un paisaje rico en innovación y descubrimiento.

Nuestra exploración de términos como AGI, Alineación, Comportamiento emergente, Paperclips, Fast Takeoff, Training, Inference, Large Language Models y Hallucinations es solo el inicio.

El reto reside no solo en entender estos términos, sino más bien asimismo en mantenerse al corriente del alegato en incesante cambio.

Sin embargo, las recompensas son del mismo modo atractivas. Conforme el potencial prosigue medrando, una sólida entendimiento de su léxico nos deja aprovechar las capacidades, atenuar los peligros y participar activamente en la configuración de un futuro impulsado por la IA.

A medida que se amplía el papel de la IA en nuestras vidas, entender su terminología ya no es un lujo, sino más bien una necesidad.

Por lo tanto, tomemos este conocimiento, prosigamos nuestro viaje de alfabetización y avancemos con osadía cara un futuro impulsado por la IA, absolutamente pertrechados y totalmente informados.

Marco Novak

Monterrey (México), 1990. Estudió una licenciatura en comunicación y comenzó trabajando en medios locales de su ciudad, como periódicos, revistas, estaciones de radio o canales de televisión. Tiene un gran interés por la cultura mexicana, incluyendo la música, la comida y la historia. Es un apasionado de los deportes, especialmente del fútbol.