
Fuente: AI Style
Ocho empleados de Google se reunieron por casualidad y coescribieron el innovador documento «convertidor», un avance tecnológico que revolucionó el campo de la inteligencia artificial, especialmente para comprender y generar textos similares a los humanos.
En la primavera de 2017, nació un artículo científico titulado «Atención es todo lo que necesitas».El autor principal Noam Shazeer encontró inesperadamente su nombre en la cima cuando vio el primer borrador, lo que parecía significar que su contribución era la más importante.En respuesta, dijo: «No he pensado en este problema deliberadamente».
En la academia, cómo organizar el nombre del autor siempre ha sido una pregunta delicada de equilibrio, cuyo nombre se coloca primero y se coloca en último lugar.Especialmente en este tipo de situación en la que todos tienen una marca única en un trabajo en equipo real.En el proceso de completar apresuradamente el documento, el equipo de investigación finalmente decidió romper las reglas y dejar de clasificar a los contribuyentes.Agregaron un asterisco y una nota al pie junto a cada nombre: «Contributor igual» y declararon que «el orden de clasificación es aleatorio».El documento se presentó a una prestigiosa conferencia de IA, donde provocó una revolución.
Nombre: Noam Shazeer / Carrera: Cofundador y CEO de Rol AI
Ahora, con el séptimo aniversario del documento de «atención», ha logrado un estatus legendario.Los autores de este documento lo llevaron a un nuevo nivel de una próspera tecnología de inteligencia artificial, redes neuronales: crearon un sistema digital que era lo suficientemente poderoso como para tener inteligencia alienígena.Esta arquitectura, conocida como «Transformers», se ha convertido en la misteriosa fuerza detrás de todos los increíbles productos de IA, incluidos los generadores de chatgpt y gráficos Dall-E y Midjourney.
Shazeer bromeó diciendo que si hubiera sabido que el periódico se habría vuelto tan famoso, «pudo haber estado más preocupado por la clasificación de la lista de los autores».Hoy, los ocho autores se han convertido en celebridades en miniatura.Llion Jones(随机排在第五位)说:“有人因为我曾经参与过一篇论文而向我索要自拍。”
Nombre: Llion Jones/Ocupación: Cofundador de Sakana AI
«Sin un transformador, no creo que estemos aquí hoy», dijo el científico de AI de renombre mundial Geoffrey Hinton, aunque él no es el autor del periódico.Se refiere a la era del cambio en la que estamos, donde empresas como OpenAI están construyendo sistemas que incluso superan la producción humana de alguna manera.
Los ocho autores más tarde salieron de Google.Ahora, como millones de personas, están utilizando la tecnología que crearon en 2017 de alguna manera.Entrevisté a estos ocho autores de «transformador» para tratar de reconstruir la imagen completa de este gran logro: una colección de inteligencia humana, creando una máquina que eventualmente puede terminar la autodestrucción.
变换器的故事始于名单上的第四个名字:Jakob Uszkoreit。他的父亲Hans Uszkoreit是一位知名的计算语言学家。Hans在1960年代末因抗议苏联入侵捷克斯洛伐克而在东德被监禁了15个月。出狱后,他逃到西德,并在柏林学习计算机和语言学。Más tarde vino a los Estados Unidos y trabajó en el Instituto SRI en Menlo Park, California, cuando nació Jakob.Finalmente, la familia regresó a Alemania, donde Jakob fue a la universidad.
Nombre: Jakob Uszkoreit / Ocupación: cofundador y CEO de Inceptive
Aunque no tenía intención de centrarse en los idiomas, cuando comenzó sus estudios de posgrado, se dirigió a la oficina de Google Mountain View y se unió al equipo de traducción de la compañía.Abandonó su programa de doctorado y decidió en 2012 unirse a un equipo de Google que trabajó en el desarrollo de un sistema que pudiera responder directamente las preguntas de los usuarios en las páginas de búsqueda sin redirigir a los usuarios a otros sitios web.En ese momento, Apple acababa de lanzar Siri, un asistente virtual que prometía proporcionar respuestas únicas en conversaciones casuales, y los ejecutivos de Google creían que Siri podría amenazar su tráfico de búsqueda.Comenzaron a centrarse más en el nuevo equipo de Uszkoreit.
«Es un pánico falso», dijo Uszkoreit.Siri realmente no amenaza a Google.Pero da la bienvenida a la oportunidad de profundizar en los sistemas donde las computadoras y los humanos están hablando.En ese momento, las redes neuronales recurrentes, una vez al borde de la academia, comenzaron a trascender otros métodos de ingeniería de IA.Estas redes están compuestas de múltiples capas en las que la información se pasa repetidamente para identificar la mejor respuesta.
Las redes neuronales han logrado un gran éxito en áreas como el reconocimiento de imágenes, y el movimiento de renacimiento de IA surgió repentinamente.Google está ajustando frenéticamente su estructura de la fuerza laboral para adoptar estas tecnologías.Las empresas desean construir sistemas que puedan producir respuestas similares a los humanos, como oraciones automáticas completas en correos electrónicos, o crear chatbots de servicio al cliente relativamente simples.
Sin embargo, esta área ha encontrado limitaciones.Las redes neuronales recurrentes tienen dificultades para manejar bloques de texto más largos.Por ejemplo, para comprender los «dos hits» en la oración «Joe es un jugador de béisbol, y después de un buen desayuno fue al parque y obtuvo dos hits», el modelo de idioma debe recordar información sobre el béisbol.En términos humanos, debe mantenerse atento.
当时的解决方案是一种名为“长短期记忆”(LSTM)的技术,它允许语言模型处理更大、更复杂的文本序列。但计算机仍然严格按顺序处理这些序列——逐词处理——并忽略了可能出现在文本后面的上下文线索。»El enfoque que estamos aplicando es básicamente una medida stopgap», dijo Uszkoreit.»Realmente no podemos obtener las cosas correctas para trabajar a escala».
Alrededor de 2014, comenzó a concebir un enfoque diferente, que llamó autoatención.Esta red puede traducir una palabra citando cualquier otra parte del texto.Estas otras partes pueden ayudar a aclarar la intención de una palabra y ayudar al sistema a producir una buena traducción.“它实际上考虑了一切,并为你提供了一种同时查看许多输入的有效方式,然后以相当选择性的方式取出一些东西,”他说。尽管AI科学家小心翼翼地不将神经网络的隐喻与生物大脑的实际工作方式混淆,但Uszkoreit似乎相信自我关注与人类处理语言的方式有些相似。
Uszkoreit cree que los modelos de autoenfoque pueden ser más rápidos y más eficientes que las redes neuronales recurrentes.También maneja la información de una manera que se adapte bien a los chips de procesamiento paralelos producidos en masa que admiten el auge del aprendizaje automático.En lugar de adoptar un enfoque lineal (ver cada palabra en orden), adopta un enfoque más paralelo (viendo múltiples palabras simultáneamente).Si se hace correctamente, Uszkoreit duda de que puede usar el autoenfoque específicamente para obtener mejores resultados.
并不是每个人都认为这个想法会改变世界,包括Uszkoreit的父亲,他在儿子为公司工作期间获得了两项谷歌教职研究奖。»La gente es escéptica sobre esto porque abandona todas las arquitecturas neuronales existentes», dijo Jakob Uszkoreit.Di adiós a las redes neuronales recurrentes?¡Esta es la herejía!»No fuimos exactamente lo mismo en la conversación entre mi papá y yo en la mesa».
Uszkoreit convenció a algunos colegas de experimentar con la autoatación.Su trabajo se mostró prometedor y publicó un artículo sobre él en 2016.Uszkoreit espera impulsar aún más su investigación: los experimentos del equipo usaron solo pequeñas partes del texto, pero ninguno de sus colaboradores estaba interesado.En cambio, dejaron el casino con una victoria modesta, aplicando las lecciones que aprendieron a Google en varias áreas, incluida la búsqueda y, en última instancia, la publicidad.En muchos sentidos, este es un éxito sorprendente, pero Uszkoreit no quiere detenerse allí.
Uszkoreit cree que el autoenfoque puede asumir tareas más grandes.Articularía su visión a cualquiera que escuchara, o incluso a algunos que no lo hicieran, y describiría su visión con pizarras en el edificio de 1945 Charleston Road, el borde norte del campus de Google.
Un día en 2016, Uszkoreit estaba almorzando con una científica llamada Illia Polosukhin en Google Café.Nacido en Ucrania, Polosukhin trabajó en Google durante casi tres años.Fue asignado al equipo que responde las preguntas planteadas directamente en el campo de búsqueda.Las cosas no salieron muy bien.»Para responder algo en Google.com, necesita algo muy barato y de alto rendimiento», dijo Polosukhin.“因为你只有毫秒级的时间来响应。”当Polosukhin表达了他的抱怨时,Uszkoreit毫不犹豫地提出了一个解决方案。»Él aconseja, ¿por qué no usar la autoatación?»
Nombre: Illia Polosukhin/Profesión: Cofundador de Near
Polosukhin a veces trabaja con el colega Ashish Vaswani.Nacido en India y criado en el Medio Oriente, Vaswani fue a la Universidad del Sur de California para ganar su doctorado del equipo de Elite de Traducción automática.Más tarde se mudó a Mountain View para unirse a Google, específicamente una nueva organización llamada Google Brain.Describió el cerebro como «un equipo radical» y creía que «las redes neuronales avanzarán en la comprensión humana».Pero todavía está buscando un gran proyecto para trabajar.Su equipo trabajó al lado de Building 1945, construyendo 1965, y se enteró de la idea de autoatención.¿Será ese un proyecto?Estuvo de acuerdo en proceder.
Los tres investigadores redactaron conjuntamente un documento de diseño llamado «Transformador: autocubre y manejo iterativo de varias tareas».Eligieron el nombre «Transformer» del «Día uno», dijo Uszkoreit.La idea es que este mecanismo transformará la información que recibe, permitiendo que el sistema extraiga la mayor comprensión posible, o al menos dar la impresión.Además, Uszkoreit tiene recuerdos maravillosos de jugar con los juguetes de personajes de acción Hasbro en la infancia.»Tenía dos pequeños juguetes Transformers cuando era niño», dijo.El archivo termina con una imagen de dibujos animados de seis transformadores que se emiten láseres entre sí en terreno montañoso.
Nombre: Ashish Vaswani/Profesión: Cofundador y CEO de Esential AI
La oración al comienzo del papel también es un poco arrogante: «Somos geniales».
A principios de 2017, Polosukhin dejó Google para comenzar su propia compañía.Para entonces, los nuevos colaboradores se unieron.Un ingeniero indio llamado Niki Parmar trabajó para una compañía de software estadounidense en India y luego se mudó a los Estados Unidos.Recibió su maestría de la Universidad del Sur de California en 2015 y fue reclutada por todas las principales compañías tecnológicas.Ella eligió Google.Cuando comenzó a trabajar, se unió a Uszkoreit y trabajó para mejorar las variantes modelo de la búsqueda de Google.
Otro nuevo miembro es Llion Jones.Nació y creció en Gales y le gustaban las computadoras «porque no era normal».En la Universidad de Birmingham, tomó un curso de IA y desarrolló curiosidad sobre las redes neuronales como introducción a los sitios históricos.Recibió su maestría en julio de 2009 y vivió en fondos de ayuda durante varios meses porque no pudo encontrar un trabajo durante la recesión.Encontró un trabajo en una empresa local y luego solicitó a Google como un «movimiento desesperado».Obtuvo el trabajo y finalmente ingresó a Google Research, donde su gerente era Polosukhin.
Un día, Jones se enteró del concepto de autoatención de un colega llamado Mat Kelcey y luego se unió al equipo de Transformer.(Later, Jones met Kelcey and briefed him on the transformer project. Kelcey didn’t buy it. «I told him, ‘I’m not sure that would work,’ which was basically the biggest misprediction of my life,» he said .
Nombre: Niki Parmar / Carrera: Cofundador de Essential AI
El trabajo del transformador atrajo a otros investigadores de Google Brain que también están tratando de mejorar los modelos de idiomas grandes.La tercera ola incluye el científico informático teórico nacido en polaco łukasz Kaiser y su interno Aidan Gómez.Gómez creció en un pequeño pueblo de granja en Ontario, Canadá, y su familia golpeaba árboles de arce cada primavera para jarabe de arce.
作为多伦多大学的大三学生,他对AI“一见钟情”,加入了机器学习小组——Geoffrey Hinton的实验室。Comenzó a contactar a personas que habían escrito documentos interesantes en Google y se les ocurrió ideas para expandir su trabajo.Kaiser tomó el anzuelo y lo invitó a hacer una pasantía.No fue hasta unos meses más tarde que Gómez aprendió que estas pasantías eran para estudiantes de doctorado, no estudiantes universitarios como él.
Kaiser y Gómez rápidamente se dieron cuenta de que el autoenfocamiento parece ser una solución prometedora y más radical al problema que están resolviendo.»Discutimos conscientemente si queríamos fusionar los dos proyectos», dijo Gómez.La respuesta es sí.
El equipo de Transformer comenzó a construir un modelo de autoenfoque que traduce texto de un idioma a otro.Miden su rendimiento utilizando un punto de referencia llamado Bleu, que compara la salida de la máquina con el trabajo de un traductor humano.Desde el principio, su nuevo modelo ha hecho un gran trabajo.“我们从没有概念证明到拥有至少与当时LSTM的最佳替代方法相媲美的东西,”Uszkoreit说。Pero en comparación con la memoria a largo y corto plazo, «no es mejor».
Llegaron a una plataforma, hasta un día en 2017, cuando Noam Shazeer tropezó con su proyecto.Shazeer是一位资深谷歌员工——他于2000年加入公司——并是一个内部传奇,从他在公司早期广告系统的工作开始。Shazeer ha estado trabajando en el aprendizaje profundo durante cinco años y recientemente ha desarrollado un interés en modelos de idiomas grandes.Pero estos modelos están lejos de producir la conversación suave que pensó que podría ser.
Según el recuerdo de Shazeer, estaba caminando por el área de trabajo de Kaiser en el corredor de Edificio 1965.Se encontró escuchando una acalorada discusión.»I remember Ashish was talking about the idea of using self-focus, and Niki was so excited about it. I thought, wow, that sounded like a good idea. It looked like a fun, smart team doing something promising.» Shazeer encontró las redes neuronales recurrentes existentes «molestas» y pensó: «¡Reemplazémoslas!»
Shazeer se está uniendo al equipo es clave.“这些理论或直觉机制,如自我关注,总是需要非常谨慎的实施,通常由少数经验丰富的‘魔术师’来展示任何生命迹象,”Uszkoreit说。Shazeer inmediatamente comenzó a lanzar su magia.Decidió escribir su propia versión del código para el equipo Transformer.»Tomé la idea básica y la hice yo mismo», dijo.
Occasionally he would ask Kaiser questions, but most of the time, he said, he “just did it for a while and then came back and said, ‘Look, it worked.’” using team members later with “magic,” “alchemy , «Y lo que describen las palabras» campana y silbato «, llevó el sistema a un nuevo nivel.
«Eso provocó un sprint», dijo Gómez.Tienen motivación y quieren ponerse al día con la próxima fecha límite: en mayo, un artículo publicado en la Conferencia de Sistemas de Procesamiento de Información Neural, el evento de IA más grande del año, realizado en diciembre.A medida que el invierno en Silicon Valley se convierte en primavera, el ritmo de los experimentos se ha acelerado.Probaron dos modelos de transformadores: uno producido con entrenamiento de 12 horas y el otro es una versión más poderosa llamada Big, que fue entrenada después de tres días y medio.Les pidieron que comenzaran a traducir inglés a alemán.
基本模型超越了所有竞争对手——而Big获得了一个BLEU分数,决定性地打破了以前的记录,同时在计算上也更有效率。»Lo hicimos, más rápido que nadie», dijo Parmar.»Y ese es solo el comienzo, porque los números siguen aumentando». Cuando Uszkoreit escuchó la noticia, sacó una vieja botella de champán que había estado sosteniendo en su camión de aventuras de montaña para celebrar.
El ritmo de trabajo del equipo se volvió loco en las últimas dos semanas antes de la fecha límite.Aunque algunos miembros del equipo todavía tienen escritorios en la construcción de 1945, principalmente trabajan en la construcción de 1965 porque hay una mejor máquina de café espresso en la cocina en miniatura allí.»La gente apenas duerme», recuerda Gómez, que estaba ocupada depurando como pasante mientras trabajaba en visualizaciones y periódicos.En tales proyectos, generalmente se realizan experimentos de ablación: algunas partes se eliminan para verificar que las partes restantes son suficientes para completar la tarea.
«Probamos todas las combinaciones posibles de técnicas y módulos, que son útiles y que son inútiles. Seguimos intentando y reemplazando», dijo Gómez.»¿Por qué funciona el modelo de esta manera contradictoria? Oh, porque olvidamos hacer la oclusión correctamente. ¿Ahora funciona? Ok, pasemos a la siguiente. Todos estos componentes de lo que llamamos ahora el transformador son todos ellos son todos. Los productos de este proceso de prueba y error de alta velocidad y de error.»Noam es un mago».
Vaswani recuerda haber pasado la noche en el sofá de la oficina una vez, mientras el equipo estaba escribiendo el periódico.Miró las cortinas que separaban el sofá del resto de la habitación, atraído por el patrón de arriba, que parecía sinapsis y neuronas.Gómez también estaba presente en ese momento, y Vaswani le dijo que el trabajo que estaban haciendo iría más allá de la traducción automática.»En última instancia, como el cerebro humano, necesitas unificar todas estas modalidades (voz, audio, visión) en una sola arquitectura», dijo.»Tengo la fuerte sensación de que estamos descubriendo algo más común».
Sin embargo, en el liderazgo principal de Google, el trabajo se ve como otro proyecto de inteligencia artificial interesante.Se les preguntó a los autores si sus jefes a menudo los llamaban para actualizar el progreso del proyecto, y no había muchas respuestas.Pero «Sabemos que probablemente sea algo bastante grande», dijo Uszkoreit.»Esto nos lleva a estar fascinados por una oración al final del documento».
Esa oración presagia lo que podría suceder a continuación: el modelo de transformador se aplica básicamente a todas las formas de expresión humana.»Estamos entusiasmados con el futuro de los modelos basados en la atención», escribieron.»Planeamos extender el transformador a problemas que involucran modalidades de entrada y salida que no sean texto» y mirar «imagen, audio y video».
Una noche unos días antes de la fecha límite, Uszkoreit se dio cuenta de que necesitaban un título.Jones señaló que el equipo ha hecho un rechazo fundamental de una tecnología: la atención.Los Beatles una vez llamaron una canción «All You Need Is Love».¿Por qué no nombrar el documento «La atención es todo lo que necesitas»?
«Soy británico», dijo Jones.»Realmente tardó solo cinco segundos en pensar. No esperaba que lo usaran».
Continuaron recolectando resultados experimentales hasta la fecha límite.»Los números en inglés-francés salieron cinco minutos antes de enviar el periódico». Se escribió el papel.
Al igual que casi todas las otras compañías de tecnología, Google solicitó rápidamente una patente temporal para el trabajo.La razón no es evitar que otros usen estas ideas, sino construir su cartera de patentes con fines defensivos.(La filosofía de la compañía es «Si avanza la tecnología, Google se beneficiará»).
Cuando el equipo del convertidor escucha comentarios de los revisores de la reunión, las reacciones son mixtas.»Uno es positivo, uno es extremadamente positivo, y el otro es:» Esto está bien «, dijo Parmar.El documento fue aceptado para exhibir en la sesión de pósters por la noche.
En diciembre, el documento comenzó a causar una sensación.Su reunión de cuatro horas el 6 de diciembre estaba llena de científicos que querían aprender más.Los autores estaban roncetos cuando hablaron sobre sus voces.A las 10:30 p.m., al final de la reunión, todavía había un grupo de personas.»El guardia de seguridad tuvo que decirnos que nos fui», dijo Uszkoreit.El momento más satisfactorio para él fue probablemente el científico informático Sepp Hochreiter dio un paso adelante para alabar el trabajo, un cumplido considerable teniendo en cuenta que Hochreiter era el co-inventor de la memoria a largo y a corto plazo, y el transformador simplemente lo reemplazó como la herramienta preferida En la caja de herramientas AI.
El convertidor no se hizo cargo del mundo de inmediato, o incluso Google.Kaiser recuerda que antes y después de que se publicó el documento, Shazeer propuso a los ejecutivos de Google que las empresas deberían abandonar todo el índice de búsqueda y capacitar a una red enorme con un transformador, básicamente utilizando transformadores para cambiar la forma en que Google organiza la información.En ese momento, incluso Kaiser pensó que la idea era ridícula.Ahora, la sabiduría tradicional piensa que es solo cuestión de tiempo.
Una startup llamada OpenAi aprovechó la oportunidad más rápido.Poco después de que se publicara el documento, la principal investigadora de OpenAi, Ilya Sutskever, que conocía al equipo de transformadores durante el tiempo de Google, sugirió que su científico Alex Radford estudiara la idea.El resultado es el primer lote de productos GPT.Como me dijo el CEO de Operai, Sam Altman, el año pasado, «cuando salió el documento del transformador, no creo que nadie de Google se haya dado cuenta de lo que significa».
La situación interna es más complicada.»Sabemos muy bien que los transformadores pueden hacer algo realmente mágico», dijo Uszkoreit.»Ahora, podría preguntar, ¿por qué Google no lanzó ChatGPT en 2018? En realidad, podríamos haber tenido GPT-3 o incluso 3.5 en 2020. El verdadero problema no es, ¿lo vieron? La pregunta es, ¿por qué son? ¿No hacemos nada con los hechos que hemos visto?
Muchos críticos tecnológicos señalan la transición de Google de un patio de recreo centrado en la innovación a una burocracia centrada en el fondo.Como Gómez le dijo al Financial Times, «no están modernizando. No están adoptando esta tecnología».Google comienza a integrar convertidores en productos en 2018, primero con sus herramientas de traducción.En el mismo año, introdujo un nuevo modelo de lenguaje basado en transformadores, Bert, y comenzó a aplicarse para buscar el próximo año.
Nombre: Aidan Gómez/Ocupación: Cofundador y CEO de Cohere
Pero estos cambios detrás de escena parecen tímidos en comparación con el salto de Openi y la audaz integración de los sistemas basados en convertidores en su línea de productos.Cuando le pregunté al CEO Sundar Pichai por qué su compañía no lanzó por primera vez un modelo de idioma grande como ChatGPT el año pasado, pensó que en este caso, Google encontró beneficioso dejar que otros lideren.»No estoy muy seguro de si será tan exitoso como es. La verdad es que, después de que la gente ve cómo funciona, podemos hacer más», dijo.
Es innegable que los ocho autores del documento salieron de Google.La compañía de Polosukhin Near ha construido una cadena de bloques con una capitalización de mercado de aproximadamente $ 4 mil millones.Parmar y Vaswani se convirtieron en socios comerciales en 2021, cofundando Adept (valorado en $ 1 mil millones) y ahora operan su segunda compañía llamada Essential AI (recibió $ 8 millones en inversión).
Sakana Ai en Llion Jones, con sede en Tokio, está valorada en $ 200 millones.Después de que Shazeer se fue en octubre de 2021, cofundó el personaje AI (valorado en $ 5 mil millones).El interno Aidan Gómez cofundó Cohere con sede en Toronto (valorado en $ 2.2 mil millones) en 2019.La compañía biotecnológica de Jakob Uszkoreit Inceptive está valorada en $ 300 millones.Todas estas empresas (excepto cerca) se basan en la tecnología convertidor.
Nombre: Lukasz Kaiser / Ocupación: Operai Fellow
Kaiser es el único que no ha comenzado una empresa.Se unió a Openai y se convirtió en el inventor de una nueva tecnología llamada Q*, que Altman dijo el año pasado «empujaría el velo de la ignorancia y empujaría la frontera del descubrimiento». Durante la entrevista, el personal de relaciones públicas de OpenAi casi saltó sobre la mesa para detenerlo).
¿Google extraña a estos desertores?Por supuesto, a excepción de otros que se mudan de la empresa a la nueva startup de IA.(Pichai me recordó que cuando le pregunté sobre la partida del traductor, la querida de la industria Openai también vio deserción: «El campo de IA es muy, muy dinámico», dijo) entorno que persigue ideas no tradicionales.»En muchos sentidos, Google ha estado por delante: invierten en la mente correcta y crean un entorno en el que podamos explorar y superar los límites», dijo Parmar.»Tomó tiempo ser adoptado. Google tiene más apuestas».
Si no hay entorno: no hay convertidor.Los autores no solo son todos empleados de Google, sino que trabajan en la misma oficina.Encuentro encuentros en el corredor y charlando en el almuerzo condujo a momentos importantes.El equipo también es culturalmente diverso.Seis de los ocho autores nacieron fuera de los Estados Unidos;
Uszkoreit de su oficina en Berlín dijo que la innovación se trata de las condiciones correctas.»Está haciendo que las personas que están muy entusiasmadas con algo juntas en el momento adecuado de sus vidas», dijo.»Si tienes esto y te diviertes haciendo cosas, estás lidiando con los problemas correctos, y tienes suerte, la magia sucede».
Algo que la magia sucedió entre Uszkoreit y su famoso padre.Después de todos esos debates de mesa, Hans Uszkoreit, su hijo informó que ahora cofundó una compañía que está construyendo un modelo de lenguaje grande.Por supuesto, se usa el convertidor.