
"El próximo gran modelo de OpenAI "podrá hacer mucho, mucho más" que los modelos existentes, dijo el director ejecutivo Sam Altman a Axios en una entrevista exclusiva en Davos el miércoles."
Por qué es importante: Altman le dijo a Axios' Ina Fried afirma que La IA está evolucionando mucho más rápidamente que las tecnologías anteriores que arrasaron en Silicon Valley. Pero también admitió que la evolución y proliferación de la tecnología OpenAI requerirá medidas "incómodas" decisiones.
- Altman cree que los futuros productos de IA deberán permitir "bastante personalización individual" y "eso va a incomodar a mucha gente", afirmó. porque la IA dará diferentes respuestas para diferentes usuarios, según sus preferencias de valores y posiblemente según el país en el que residan.
- "Si el país dijera que todos los homosexuales deberían ser asesinados al verlos, entonces no... eso está fuera de los límites", afirmó. Altman le dice a Axios. "Pero probablemente hay otras cosas con las que personalmente no estoy de acuerdo, pero una cultura diferente sí podría hacerlo". ... Tenemos que sentirnos algo incómodos como constructores de herramientas con algunos de los usos de nuestras herramientas”.
- Cuando se le preguntó si las versiones futuras de los productos OpenAI podrían responder una pregunta de manera diferente en diferentes países según los valores de ese país, Altman dijo: "Será diferente para usuarios con valores diferentes". Creo que la cuestión de los países es algo menos importante”.
Puede leer también | Apple : Ingenieros están trabajando para tener un IA similiar a chatGPT.
Lo que viene: Nos dirigimos hacia una nueva forma de hacer trabajo del conocimiento, dijo Altman, hablando en Axios House al margen del Foro Económico Mundial.
- Pronto, "es posible que puedas decir "cuáles son mis correos electrónicos más importantes de hoy"," y hacer que la IA los resuma.
- Altman dice que los avances en IA "ayudarán enormemente a acelerar el ritmo de los descubrimientos científicos". No espera que eso suceda en 2024, "pero cuando suceda, será algo muy, muy importante".
- Altman dijo que su principal prioridad en este momento es lanzar el nuevo modelo, que probablemente se llamará GPT-5.
Altman admitió que está "nervioso" sobre el impacto de la IA en las elecciones de todo el mundo este año, pero se mostró a la defensiva sobre las inversiones de OpenAI en esa área.
- Altman dijo que quería evitar "pelear la última guerra" sobre la desinformación electoral.
- En las últimas semanas, OpenAI anunció que intensificaría sus esfuerzos para reducir la desinformación y el abuso de sus modelos relacionados con más de 60 elecciones. lugar en todo el mundo en 2024.
- No especificó cuántos empleados de OpenAI trabajarían en la resolución de problemas electorales, pero rechazó la idea de que simplemente tener un equipo electoral grande ayudaría a resolver los problemas electorales. OpenAI tiene mucha menos gente dedicada a la seguridad electoral que empresas como Meta y TikTok.
Flashback: Altman fue destituido como director ejecutivo en noviembre pasado antes de ser reinstalado rápidamente. Las tensiones con la junta directiva habían sido impulsadas por un debate interno sobre crecimiento versus barreras de seguridad para la poderosa tecnología de la empresa.
Puede leer también | Discord: Las nuevas actualizaciones de su bot con similitud a chat GPT.
La intriga: Altman dijo que no hay ninguna actualización sobre si su colaborador cercano y cofundador de OpenAI, Ilya Sutskever, regresará a la empresa en un puesto de alto nivel después de su renuncia. a raíz de la debacle de la junta directiva.
- Sorprendentemente, Altman admitió que "no está seguro del estado exacto" del empleo de Sutskever.
- Los intereses e inversiones de Altman se extienden mucho más allá de OpenAI (desde la fusión nuclear hasta la fabricación de chips), lo que hace que muchos se pregunten si está prestando suficiente atención a la supervisión de una tecnología que, según él, podría destruir a la humanidad.
- Altman dijo "OpenAI es lo que estoy haciendo" y que fue una "tergiversación" decir que está involucrado en proyectos que no son compatibles con OpenAI. Dijo que continúa apoyando a las nuevas empresas que financiaba antes de unirse.
Impulsando las noticias: Altman defendió los acuerdos de licencia de contenido firmados por OpenAI con los principales editores, incluidos AP y Axel Springer, y atacó el NY Times, que está demandando a OpenAI por infracción de derechos de autor. - Altman dijo que OpenAI no necesita contenido del NYT para construir modelos de IA exitosos, pero evitó cuando se le preguntó si supervisaría la creación de un modelo basado únicamente en contenido con licencia y de dominio verdaderamente público: "Me gustaría tener un sí o un sí fácil". "No hay respuesta", él dijo.
- "Podemos respetar la opción de no participar" de compañías como el NYT, dijo, "pero el contenido del NYT ha sido copiado y no atribuido en toda la web" Y OpenAI no puede evitar la capacitación sobre eso, dijo.
- Altman dijo que OpenAI decidió permitir el uso militar de sus modelos por el deseo de apoyar al gobierno de Estados Unidos, pero admitió que "habrá muchas cosas en las que tendremos que empezar lentamente".
Puede leer también | OpenAI: Enfrentando la Desinformación Electoral con una Estrategia Integral.
Lo que dicen: El consejo de Altman para los directores ejecutivos Atrapados en el intento de descubrir el mejor uso de la IA para su empresa es: "¿Cómo puedo hacer que mi flujo de trabajo interno sea más eficiente?"
- La sabiduría de Altman después de su experiencia en 2023 cuando fue despedido y recontratado como director ejecutivo: "No dejes que los problemas importantes pero no urgentes se agraven".
- Cuando se le preguntó qué aprendió en 2023 y que llevaría hasta 2024, Altman bromeó: "Aprendí algo sobre los miembros de la junta directiva".

