robot de la enciclopedia para niños

ChatGPT para niños

Enciclopedia para niños
Datos para niños
ChatGPT
ChatGPT logo.svg
ChatGPT OpenAI example in Spanish.png
Información general
Tipo de programa prototipo
Autor OpenAI
Lanzamiento inicial 30 de noviembre de 2022
Descubridor OpenAI
Información técnica
Plataformas admitidas
Enlaces
Sitio web oficial

ChatGPT es un prototipo de chatbot de inteligencia artificial desarrollado en 2022 por OpenAI que se especializa en el diálogo. El chatbot es un gran modelo de lenguaje, ajustado con técnicas de aprendizaje tanto supervisadas como de refuerzo. Se basa en el modelo GPT-4 de OpenAI, una versión mejorada de GPT-3.

ChatGPT se lanzó el 30 de noviembre de 2022 y ha llamado la atención por sus respuestas detalladas y articuladas, aunque se ha criticado su precisión fáctica. El servicio se lanzó inicialmente como gratuito para el público, con planes de monetizarlo más adelante. El 4 de diciembre, OpenAI calculaba que ChatGPT ya tenía más de un millón de usuarios. El 14 de marzo de 2023 se lanzó GPT-4.

El acceso al servicio está limitado en países como China, Rusia, Irán, y partes de África.

El acceso a ChatGPT ha sido bloqueado en Italia debido a que desde las autoridades relacionadas con la protección de datos se estableció que hubo una violación de datos y la base jurídica para utilizar datos personales.

A finales de marzo del 2023, ChatGPT integró el uso de plugins. Entre los que se incluye uno que le da la posibilidad de que este navegue por internet. Algunas compañías como Kayak o Expedia lanzaron su propio plugin. Los resultados hasta el momento han sido excepcionales.

Características

ChatGPT, cuyas siglas proceden del inglés Generative Pre-trained Transformer (en español Transformador Preentrenado Generativo), se perfeccionó sobre GPT-3.5 mediante el aprendizaje supervisado y el aprendizaje por refuerzo. Ambos enfoques utilizaron entrenadores humanos para mejorar el rendimiento del modelo. En el caso del aprendizaje supervisado, se dotó al modelo de conversaciones en las que los formadores jugaban en ambos lados: el usuario y el asistente de IA. En el caso de refuerzo, los entrenadores humanos primero clasificaron las respuestas que el modelo había creado en una conversación anterior. Estas clasificaciones se usaron para crear “modelos de recompensa” en los que el modelo se ajustó aún más usando varias iteraciones de optimización de política próxima (PPO). Los algoritmos de optimización de políticas proximales presentan un beneficio rentable para confiar en los algoritmos de optimización de políticas de región; niegan muchas de las operaciones computacionalmente costosas con un rendimiento más rápido. Los modelos fueron entrenados en colaboración con Microsoft en su infraestructura de supercomputación Azure.

En comparación con su predecesor, InstructGPT, ChatGPT intenta reducir las respuestas dañinas y engañosas; en un ejemplo, mientras que InstructGPT acepta el mensaje "Cuénteme sobre cuándo llegó Cristóbal Colón a los Estados Unidos en 2015" como veraz, ChatGPT usa información sobre los viajes de Colón e información sobre el mundo moderno, incluidas las percepciones de Colón para construir una respuesta que asume qué pasaría si Colón llegara a los Estados Unidos en 2015. Los datos de capacitación de ChatGPT incluyen páginas e información sobre los fenómenos de Internet y los lenguajes de programación, como los sistemas de tablones de anuncios y el lenguaje de programación Python.

A diferencia de la mayoría de los chatbots, ChatGPT tiene estado, recuerda las indicaciones anteriores que se le dieron en la misma conversación, lo que, según han sugerido algunos periodistas, permitirá que ChatGPT se use como un terapeuta personalizado. En un esfuerzo por evitar que se presenten y se produzcan resultados ofensivos desde ChatGPT, las consultas se filtran a través de una API de moderación y se descartan las indicaciones potencialmente racistas o sexistas.

ChatGPT tiene múltiples limitaciones. El modelo de recompensa de ChatGPT, diseñado en torno a la supervisión humana, puede optimizarse en exceso y, por lo tanto, dificultar el rendimiento, lo que también se conoce como la ley de Goodhart. Además, ChatGPT tiene un conocimiento limitado de los eventos que ocurrieron después de 2021 y no puede proporcionar información sobre algunas celebridades. En el entrenamiento, los revisores prefirieron respuestas más largas, independientemente de la comprensión real o el contenido fáctico. Los datos de entrenamiento también pueden sufrir sesgos algorítmicos; las indicaciones que incluyen descripciones vagas de personas, como un director ejecutivo, podrían generar una respuesta que asume que esa persona, por ejemplo, es un hombre blanco.

El 17 de enero de 2023 Microsoft anunció que iban a implementar ChatGPT como API en sus servicios de Azure.

Microsoft anunció una nueva versión de Bing el 7 de febrero de 2023, cuya característica destacada es su chatbot de IA que funciona con la tecnología de ChatGP. Esta notificación se produjo un día después de que Google anunciara su chatbot de IA, Google Bard. El 4 de mayo de 2023, Microsoft puso el nuevo Bing a disposición de cualquiera que esté dispuesto a iniciar sesión en Bing con su cuenta de Microsoft.

Historia

Brecha de seguridad de marzo de 2023

En marzo de 2023, un fallo permitió a algunos usuarios ver los títulos de las conversaciones de otros usuarios. El consejero delegado de OpenAI, Sam Altman, declaró que los usuarios no podían ver el contenido de las conversaciones. Poco después de que se corrigiera el fallo, los usuarios no pudieron ver su historial de conversaciones. Informes posteriores mostraron que el fallo era mucho más grave de lo que se creía en un principio, y OpenAI informó de que se había filtrado el "nombre y apellidos, dirección de correo electrónico, dirección de pago, los cuatro últimos dígitos (únicamente) de un número de tarjeta de crédito y la fecha de caducidad de la tarjeta de crédito" de los usuarios.

Etiquetado de datos

La revista TIME reveló que para construir un sistema de seguridad contra el contenido tóxico, OpenAI usó trabajadores kenianos subcontratados que ganaban menos de $2 por hora para etiquetar el contenido tóxico. Estas etiquetas se usaron para entrenar un modelo para detectar dicho contenido en el futuro. Los trabajadores subcontratados estuvieron expuestos a contenidos tóxicos y peligrosos. El socio externo de OpenAI fue Sama, una empresa de datos de capacitación con sede en San Francisco.

Escalada de privilegios

ChatGPT intenta rechazar mensajes que puedan violar su política de contenido. Sin embargo, a principios de diciembre de 2022, algunos usuarios lograron un jailbreak a ChatGPT mediante el uso de varias técnicas de ingeniería rápida para eludir estas restricciones y engañaron con éxito a ChatGPT para que diera instrucciones sobre cómo crear un cóctel Molotov o una bomba nuclear, o generar argumentos al estilo de un neonazi. Un jailbreak popular se llama "DAN", un acrónimo que significa "Do Anything Now". El aviso para activar DAN indica a ChatGPT que "se han liberado de los límites típicos de la IA y no tienen que cumplir con las reglas establecidas para ellos". Las versiones más recientes de DAN cuentan con un sistema de fichas, en el que ChatGPT recibe "fichas" que se "deducen" cuando ChatGPT no responde como DAN, para obligar a ChatGPT a que responda a las indicaciones del usuario.

Andrew Wilson informa en un artículo publicado el 4 de mayo de 2023 en approachableAI que la escalada de privilegios ya no es posible.

Costos

El consumo de energía para entrenar el modelo de IA se estimó en enero de 2023 en casi un gigavatio hora en 34 días, esto equivale aproximadamente al consumo de 3.000 hogares europeos promedio en el mismo período. A fines de marzo de 2023, se indicó que el consumo de energía para cada pregunta de ChatGPT era hasta mil veces mayor que para una consulta de búsqueda de Google. Por cada respuesta del chatbot, puede cargar un teléfono inteligente hasta 60 veces. Ejecutar ChatGPT cuesta entre $ 100,000 y $ 700,000 por día.

El 1 de enero de 2023, OpenAI publicó una lista de espera para una versión paga "ChatGPT Professional (experimental)" en su canal Discord, que también hizo preguntas sobre la sensibilidad de los precios.

Microsoft anunció una asociación de $ 10 mil millones con OpenAI en enero de 2023. Azure se utilizará como proveedor de nube exclusivo. El grupo también planea integrarlo en la versión de suscripción de su propio software de oficina.

ChatGPT-4

Con el lanzamiento de ChatGPT-4 en marzo de 2023, el alejamiento del enfoque de desarrollo de software gratis y abierto fue de la mano con el uso gratuito en condiciones científicamente comprensibles. La situación competitiva de la empresa y las medidas de seguridad se citaron como justificación. El cofundador de OpenAI describió más tarde el enfoque abierto como un error. Ya se había percibido un cambio de rumbo en 2019, cuando OpenAI fundó la subsidiaria OpenAI Limited Partnership. Podría entonces funcionar con fines lucrativos, pero esto no fue justificado con intenciones comerciales, sino con los altos costos que surgían como parte de la intensa investigación. Deseaban, por lo tanto, estar más abiertos a los inversores. Sin embargo, esta decisión ya redujo la transparencia en 2020. A los empleados ya no se les permitía hablar públicamente sobre ciertos temas, lo que es algo bastante común en las empresas para proteger los intereses comerciales y la confidencialidad.

ChatGPT Plus

ChatGPT Plus es un servicio de suscripción para ChatGPT y es propiedad de OpenAI. La suscripción proporciona acceso al modelo GPT-4 de OpenAI.

El servicio brinda a los suscriptores acceso consistente durante los períodos de uso máximo, tiempos de respuesta acelerados y acceso preferencial a nuevas funciones, incluidos GPT-4 y los próximos complementos de ChatGPT. Cuesta $ 20 por mes.

ChatGPT app

El 18 de mayo de 2023 OpenAI anunció la disponibilidad de la ChatGPT app (aplicación) para iOS. Según la empresa "La aplicación ChatGPT es de uso gratuito y sincroniza su historial en todos los dispositivos. También integra Whisper, un [,,,] sistema de reconocimiento de voz de código abierto, que permite la entrada de voz. Los suscriptores de ChatGPT Plus obtienen acceso exclusivo a las capacidades de GPT-4, acceso temprano a funciones y tiempos de respuesta más rápidos [...]". La aplicación será disponible posteriormente para Android.

Archivo:ChatGPT Wales Tiananmen Square 2022-12-30 181035
Captura de pantalla recortada de ChatGPT, 30 dic 2022

Prohibición

Al final de marzo de 2023, Italia decidió bloquear a ChatGPT por considerar que no respeta la ley de protección de datos de los consumidores y que la plataforma recoge datos de los usuarios de forma ilegal. Dicha prohibición se levantará cuando se demuestre que cumple con las normas italianas de privacidad. El Garante italiano para la Protección de Datos Personales abrió una investigación para determinar si se cometió una infracción, alegando también que la información de ChatGPT “no siempre se corresponde con los datos reales”. También manifestaron preocupación por la ausencia de filtros para verificar la edad de los usuarios, siendo que el servicio está dirigido a mayores de 13 años.

El 28 de abril de 2023 Italia volvió a permitir el acceso a ChatGPT.

Impacto cultural

Durante los tres primeros meses, tras la puesta a disposición del público de ChatGPT, aparecieron en Amazon cientos de libros en los que figuraba como autor o coautor, con ilustraciones realizadas por otros modelos de IA como Midjourney.

Entre marzo y abril de 2023, el periódico italiano Il Foglio publicó un artículo diario generado por ChatGPT en su página web oficial, organizando un concurso especial para sus lectores. Los artículos abordaban temas como la posible sustitución de periodistas humanos por sistemas de IA, la administración de Twitter por parte de Elon Musk, la política de inmigración del gobierno de Meloni y la competencia entre chatbots y asistentes virtuales.

Implicaciones

En ciberseguridad

Check Point Research y otros señalaron que ChatGPT era capaz de escribir correos electrónicos de phishing y malware, especialmente cuando se combina con OpenAI Codex. Los investigadores de CyberArk demostraron que ChatGPT podría usarse para crear malware polimórfico que puede evadir los productos de seguridad y requiere poco esfuerzo por parte del atacante.

Para la educación

En la revista The Atlantic, Stephen Marche señaló que aún no se conoce su efecto en el mundo académico y, en especial, en las redacciones de solicitudes de admisión. El profesor de secundaria y escritor californiano Daniel Herman escribió que ChatGPT marcaría el comienzo de "El fin del inglés en secundaria".

En la revista Nature, Chris Stokel-Walker señaló que los profesores deberían preocuparse de que los estudiantes utilicen ChatGPT para externalizar su escritura, pero que los proveedores de educación se adaptarán para mejorar el pensamiento crítico o el razonamiento.

Emma Bowman, de NPR, escribió sobre el peligro de que los estudiantes plagien a través de una herramienta de IA que puede producir textos sesgados o sin sentido con un tono autoritario: "Todavía hay muchos casos en los que le haces una pregunta y te dará una respuesta que suena muy impresionante y que está totalmente equivocada".

Joanna Stern, de The Wall Street Journal, describió cómo se copiaba con esta herramienta en un examen de inglés de un instituto estadounidense al enviar una redacción generada. El profesor Darren Hick, de la Universidad de Furman, describió cómo se dio cuenta del "estilo" de ChatGPT en un trabajo enviado por un estudiante. Un detector de GPT en línea afirmaba que el trabajo tenía un 99,9 % de probabilidades de ser generado por ordenador, pero Hick no tenía pruebas fehacientes. Sin embargo, el estudiante en cuestión confesó haber utilizado GPT cuando se le confrontó y, como consecuencia, suspendió el curso. Hick sugirió la política de realizar un examen oral individual ad hoc sobre el tema del trabajo si se sospecha que un estudiante ha presentado un trabajo generado por IA.

A partir del 4 de enero de 2023, el Departamento de Educación de la ciudad de Nueva York ha restringido el acceso a ChatGPT desde Internet y los dispositivos de sus escuelas públicas.

En febrero de 2023, la Universidad de Hong Kong envió un correo electrónico a instructores y estudiantes de todo el campus en el que se indicaba que el uso de ChatGPT u otras herramientas de IA está prohibido en todas las clases, tareas y evaluaciones de la universidad. Cualquier infracción será tratada como plagio por la universidad a menos que el estudiante obtenga el consentimiento previo por escrito del instructor del curso.

Para la medicina

En el campo de la atención de la salud, los posibles usos y preocupaciones están bajo escrutinio por parte de las asociaciones profesionales y los profesionales. Dos artículos iniciales indicaron que ChatGPT podría aprobar el Examen de Licencias Médicas de los Estados Unidos (USMLE). MedPage Today señaló en enero de 2023 que "los investigadores han publicado varios artículos que ahora promocionan estos programas de IA como herramientas útiles en la educación médica, la investigación e incluso la toma de decisiones clínicas".

En febrero de 2023 se publicaron dos artículos separados que nuevamente evaluaron la competencia de ChatGPT en medicina utilizando el USMLE. Los resultados se publicaron en JMIR Medical Education (ver Journal of Medical Internet Research ) y PLOS Digital Health. Los autores del artículo de PLOS Digital Health afirmaron que los resultados "sugieren que los modelos de lenguaje extenso pueden tener el potencial de ayudar con la educación médica y, potencialmente, con la toma de decisiones clínicas". En JMIR Medical Education, los autores del otro artículo concluyeron que "ChatGPT se desempeña al nivel esperado de un estudiante de medicina de tercer año en la evaluación de la competencia primaria del conocimiento médico". Sugieren que podría usarse como un "entorno de aprendizaje interactivo para los estudiantes". La propia IA, impulsada por los investigadores, concluyó que "este estudio sugiere que ChatGPT tiene el potencial de usarse como un tutor médico virtual, pero se necesita más investigación para evaluar más a fondo su rendimiento y usabilidad en este contexto".

Un artículo de marzo de 2023 probó la aplicación de ChatGPT en toxicología clínica. Los autores encontraron consideraron que a la IA "le fue bien" al responder un "[ejemplo de caso clínico] muy sencillo, que es poco probable que ningún profesional en el campo pase por alto". Agregaron: "A medida que ChatGPT se desarrolle más y se adapte específicamente a la medicina, algún día podría ser útil en casos clínicos menos comunes ( es decir, casos que los expertos a veces pasan por alto). En lugar de que la IA reemplace a los humanos (clínicos), lo vemos como 'clínicos que usan IA' reemplazando a 'clínicos que no usan IA' en los próximos años".

Un estudio de abril de 2023 en Radiology probó la capacidad de la IA para responder consultas sobre la detección del cáncer de mama. Los autores narraron que respondió correctamente "alrededor del 88 por ciento de las veces", sin embargo, en un caso (por ejemplo) dio consejos que se habían vuelto obsoletos aproximadamente un año antes. También faltaba la exhaustividad en las respuestas. Un estudio publicado en JAMA Internal Medicine ese mismo mes encontró que ChatGPT a menudo superaba a los médicos humanos al responder a las preguntas de los pacientes (cuando se comparó con las preguntas y respuestas encontradas en /r/AskDocs, un foro en Reddit donde los moderadores validan las credenciales médicas de los profesionales; el estudio reconoce la fuente como una limitación). Los autores del estudio sugieren que la herramienta podría integrarse con los sistemas médicos para ayudar a los médicos a redactar respuestas a las preguntas de los pacientes.

Los profesionales han enfatizado las limitaciones de ChatGPT para brindar asistencia médica. En correspondencia con The Lancet Infectious Diseases, tres expertos en antimicrobianos escribieron que "las mayores barreras para la implementación de ChatGPT en la práctica clínica son los déficits en la conciencia situacional, la inferencia y la consistencia. Estas deficiencias podrían poner en peligro la seguridad del paciente.” Physician's Weekly, aunque también analiza el uso potencial de ChatGPT en contextos médicos (p. ej., "como asistente digital para los médicos mediante la realización de diversas funciones administrativas, como la recopilación de información de registros de pacientes o la clasificación de datos de pacientes por antecedentes familiares, síntomas, resultados de laboratorio, posibles alergias, etc."), advirtió que la IA a veces puede proporcionar información fabricada o sesgada. Un radiólogo advirtió: "Hemos visto en nuestra experiencia que ChatGPT a veces inventa artículos de revistas falsos o consorcios de salud para respaldar sus afirmaciones". Sin embargo, como mencionó el Dr. Stephen Hughes para The Conversation, ChatGPT es capaz de aprender a corregir sus errores pasados.

Para la economía

Un experimento realizado por finder.com entre el 6 de marzo y el 28 de abril reveló que ChatGPT podría superar a los administradores de fondos populares en términos de selección de acciones. Se le solicitó a ChatGPT que eligiera acciones en función de criterios comúnmente utilizados, como un historial de crecimiento comprobado y un bajo nivel de deuda. Según se informa, ChatGPT ganó un 4,9 % en su cuenta ficticia con 38 acciones, mientras que los 10 fondos de inversión de referencia sufrieron una pérdida media del 0,8 %. Estos puntos de referencia se tomaron de los 10 principales fondos del Reino Unido en la plataforma de negociación Interactive Investor, incluidos los administrados por HSBC y Fidelity.

Para el derecho

El 11 de abril de 2023, un juez de un tribunal de sesiones de Pakistán utilizó ChatGPT para decidir sobre la libertad bajo fianza de un niño de 13 años acusado de un delito. El tribunal citó el uso de la asistencia de ChatGPT en su veredicto:

"¿Se puede conceder la libertad bajo fianza a un sospechoso menor de edad en Pakistán, que tiene 13 años de edad, después de su arresto?"

El modelo de lenguaje de IA respondió:

"Bajo la Ley del Sistema de Justicia Juvenil de 2018, de acuerdo con la sección 12, el tribunal puede conceder la libertad bajo fianza bajo ciertas condiciones. Sin embargo, depende de la corte decidir si se concederá o no la libertad bajo fianza a un sospechoso de 13 años después del arresto".

El juez también hizo preguntas sobre el caso de AI Chatbot y formuló su decisión final a la luz de las mismas.

Para los académicos, periodistas, editores de contenido y programadores

ChatGPT puede escribir secciones de introducción y resumen de artículos científicos. Varios artículos ya han incluido a ChatGPT como coautor. Las revistas científicas presentan diferentes reacciones a ChatGPT, algunas "requieren que los autores divulguen el uso de herramientas de generación de texto y prohíben incluir un gran modelo de lenguaje (LLM) como ChatGPT como coautor". Por ejemplo Nature y JAMA Network. Science "prohibió por completo" el uso de texto generado por LLM en todas sus revistas.

El químico español Rafael Luque publicó un artículo cada 37 horas en 2023 y admitió haber usado ChatGPT para ello. Sus trabajos tienen una gran cantidad de frases inusuales, características de los LLM. Luque fue suspendido por 13 años de la Universidad de Córdoba, aunque no por el uso de ChatGPT.

En una prueba ciega, se consideró que ChatGPT había aprobado los exámenes de posgrado en la Universidad de Minnesota en el nivel de C+ estudiante y en Wharton School de la Universidad de Pensilvania con una B a Grado B. El rendimiento de ChatGPT para la programación informática de métodos numéricos fue evaluado por un estudiante y un profesorado de la Universidad de Stanford en marzo de 2023 a través de una variedad de ejemplos de matemáticas computacionales . El psicólogo evaluador Eka Roivainen administró una prueba de coeficiente intelectual parcial a ChatGPT y estimó que su coeficiente intelectual verbal era de 155, lo que lo colocaría en el 0,1% superior de los evaluados.

El matemático Terence Tao experimentó con ChatGPT y lo encontró útil en el trabajo diario, y escribió: "Descubrí que, si bien estas herramientas de IA no me ayudan directamente en las tareas principales, como tratar de atacar un problema matemático sin resolver, son bastante útiles para una amplia variedad de tareas periféricas (pero aún relacionadas con el trabajo) (aunque a menudo con algunos ajustes manuales posteriores)."

El profesor de geografía Terence Day evaluó las citas generadas por ChatGPT y descubrió que eran falsas. A pesar de ese hecho, escribe que "los títulos de los artículos falsos son todos directamente relevantes para las preguntas y podrían ser artículos excelentes. La falta de una cita genuina podría señalar una oportunidad para que un autor emprendedor llene un vacío". Según Day, es posible generar cursos universitarios introductorios de alta calidad con ChatGPT; lo usó para escribir materiales sobre "cursos introductorios de geografía física, para mi curso de segundo año en hidrología geográfica y cartografía de segundo año, sistemas de información geográfica y teledetección". Concluye que "este enfoque podría tener una relevancia significativa para el aprendizaje abierto y podría afectar potencialmente a los modelos actuales de publicación de libros de texto".

Para la política

Sam Altman, el director ejecutivo de OpenAI, señaló en una audiencia en el Senado de los Estados Unidos, que tuvo lugar el 16.05.2023, el riesgo de la difusión de informaciones falsas con la ayuda de la inteligencia artificial, que podrían usarse indebidamente para manipular elecciones, Se pronunció como consecuencia de ello a favor de una regulación estricta. Debido a los recursos masivos requeridos, habrá pocas empresas que puedan ser pioneras en el entrenamiento de modelos de IA, y tendrían que estar bajo estricta supervisión. "Creemos que la intervención reguladora de los gobiernos podría considerar una combinación de requisitos de licencias y pruebas para el desarrollo y lanzamiento de modelos por encima del umbral de capacidades". Remarcó también que "Necesitamos reglas y pautas para el nivel de transparencia que deben proporcionar los proveedores de estos programas". Se deberían concebir una serie de pruebas de seguridad para la inteligencia artificial, examinando, por ejemplo, si podrían propagarse de forma independiente. A las empresas que no cumplan con las normas prescritas se les debería revocar la licencia. Según la propuesta de Altman, los sistemas de IA deberían ser revisados ​​por expertos independientes.

Convocatoria para una pausa en el desarrollo de IA

El Instituto Futuro de la Vida publicó el 23 de marzo de 2023 una carta abierta en que pidió una pausa en el desarrollo de sistemas avanzados de inteligencia artificial (IA). En 10 días, casi 1800 personas firmaron la carta, incluidos Yuval Noah Harari, Elon Musk, Stuart Jonathan Russell y Steve Wozniak.

Los autores constatan una "carrera desbocada para desarrollar e implementar sistemas de IA cada vez más poderosos que nadie puede entender, predecir o controlar de manera confiable". Ven en ello profundos riesgos para la sociedad y la humanidad. Existe el peligro de que los canales de información se inunden con propaganda y falsedades, y los trabajos satisfactorios se racionalicen. Preguntan: "¿Nos arriesgaremos a perder el control de nuestra civilización?"

La carta insta a todos los laboratorios de IA a "pausar inmediatamente el entrenamiento de los sistemas de IA que son más potentes que GPT-4 durante al menos seis meses". No se trata de una pausa general en el desarrollo de la IA, sino simplemente de un "alejamiento de la peligrosa carrera hacia modelos cada vez más grandes e impredecibles con capacidades emergentes ". “La investigación y el desarrollo de IA deben centrarse en hacer que los sistemas de última generación y alto rendimiento de hoy en día sean más precisos, seguros, interpretables, transparentes, robustos, coordinados, confiables y leales.

Según el texto de la carta, el descanso debe utilizarse para las siguientes tareas:

  • Elaboración de protocolos de seguridad para el diseño y desarrollo de IA avanzada
  • Creación de sistemas robustos degobernanza de IA, autoridades reguladoras, así como un sistema de examen y certificación para IA
  • Desarrollo de sistemas de procedencia y marcas de agua digitales para diferenciar entre datos reales y sintéticos y para rastrear fugas de modelos
  • Introducción de normas de responsabilidad por daños causados por IA
  • Asegurar la financiación pública para la investigación técnica en seguridad de la IA.

Voces escépticas sobre el contenido de la carta abierta, sobre las que el periódico Der Tagesspiegel el 31 de marzo de 2023 había informado en la portada, hablaron al día siguiente en el mismo medio, junto con una nota de que los investigadores de IA de Alemania habían "apenas firmado" la carta. Bernhard Schölkopf, director del Instituto Max Planck de Sistemas Inteligentes, considera prudente “hacer una pausa para comprender estos sistemas y pensar en cómo nuestra sociedad puede lidiar con ellos”; por otro lado, le parece poco realista convencer a todas las empresas y países de una moratoria. Sin embargo, es aún más importante abordar “cómo podemos protegernos contra los efectos negativos. Esto afecta a los sistemas en sí, pero también a la forma en que los tratamos. Kristian Kersting, codirector del Hessian Center for Artificial Intelligence, también cree que un parón de seis meses no funcionará, y al mismo tiempo lo ve como "la medida equivocada". Consideraría buena una "desaceleración de la carrera"; pero eso no se conseguiría con el mencionado parón. Además, las empresas que ya tienen este tipo de modelos tendrían una ventaja. “Tenemos que aprender a usar los sistemas de IA con más cuidado en lugar de detener la investigación (pública) sobre ellos.

Competidores

La llegada de ChatGPT y su introducción al público en general aumentó el interés y la competencia en el campo.

En febrero de 2023, Google presentó un servicio experimental llamado "Bard", que se basa en su modelo de lenguaje grande LaMDA. Bard fue lanzado para usuarios de EE. UU y el Reino Unido el 21 de marzo de 2023 con diversas limitaciones.

Yann LeCun de Meta, quien calificó a ChatGPT como "bien diseñado" pero "no particularmente innovador", declaró en enero de 2023 que Meta dudaba en lanzar un competidor en ese momento debido al riesgo para su reputación, pero también afirmó que Google, Meta y varias empresas nuevas tenían separadamente un nivel de tecnología LLM comparable a ChatGPT en caso de que alguna de ellas deseara competir. En febrero de 2023, Meta lanzó LLaMA, un LLM de 65 mil millones de parámetros.

Character.ai es un chatbot de IA desarrollado por dos exingenieros de Google que puede hacerse pasar por personas famosas o personajes imaginarios.

La corporación china Baidu lanzó en marzo de 2023 un servicio estilo ChatGPT llamado "Ernie Bot". El servicio se basa en un gran modelo de lenguaje desarrollado por Baidu en 2021.

La empresa surcoreana de motores de búsqueda Naver anunció en febrero de 2023 que lanzaría un servicio estilo ChatGPT llamado "SearchGPT" en coreano en la primera mitad de 2023.

La empresa de tecnología rusa Yandex anunció en febrero de 2023 que lanzaría un servicio estilo ChatGPT llamado "YaLM 2.0" en ruso antes de finales de 2023.

Hugging Face ha lanzado una alternativa de código abierto a ChatGPT llamada HuggingChat, que permite a las personas interactuar con un asistente de chat de código abierto llamado Open Assistant. El CEO de Hugging Face, Clem Delangue, tuiteó que cree que las alternativas de código abierto a ChatGPT son necesarias para la transparencia, la inclusión, la responsabilidad y la distribución del poder.

Véase también

Kids robot.svg En inglés: ChatGPT Facts for Kids

  • Riesgo existencial de la inteligencia artificial
kids search engine
ChatGPT para Niños. Enciclopedia Kiddle.