Hoy el Tren Roca funciona con servicio limitado
Se están haciendo obras en distintos ramales.
Diario Hoy dialogó con Alexander Ditzend, presidente de la Sociedad Argentina de Inteligencia Artificial, quien se refirió a la tecnología que está revolucionando el mundo, el ChatGPT4, y las restricciones impuestas por Twitter.
23/07/2023 - 00:00hs
Alexander Ditzend es consultor, capacitador y programador especializado en Inteligencia Artificial (IA). En los últimos años, acompañó a diferentes organizaciones en el desarrollo de productos y servicios basados en IA, partiendo de apoyo a la dirección estratégica y llegando hasta la puesta en marcha junto a los equipos técnicos. Hoy preside la Sociedad Argentina de Inteligencia Artificial.
—¿Quiénes integran la Sociedad Argentina de Inteligencia Artificial y cuál es el trabajo que realizan?
—Está integrada por profesionales de la IA, o sea desarrolladores, consultores, investigadores, entusiastas, gente que quiere aprender y también dueños de empresas. También hay gente que trabaja en las oficinas del Gobierno; y estamos alineados detrás de un solo objetivo, que es desarrollar la IA en la Argentina de manera ética y con el propósito de mejorar la calidad de vida de argentinos y argentinas. Somos una organización muy nueva. Damos charlas gratuitas, estamos preparando algunos cursos también, damos servicios online, por ejemplo en plataformas donde uno puede desarrollarse a través de su propio asistente virtual y a partir de ahí empezar su propio negocio. Damos servicios de inteligencia artificial a empresas por supuesto. Lo que queremos es que las pymes argentinas empiecen transformar sus procesos con inteligencia artificial y que lo hagan de la manera más fácil posible.
—¿Qué cambió con la Inteligencias Artificial hoy y qué más cambios puede haber a corto plazo?
—El cambio en nuestra vida diaria todavía no se ve. Hay un problema de aplicación. Hay empresas que lo usan intensivamente, más que nada en algoritmos de recomendación; entonces podemos los usuarios evitar hacer búsquedas demasiado exhaustivas ya que el sistema es inteligente y reconoce que si estuvimos viendo ciertos productos nos pueden interesar otros y hacer una experiencia de usuario mucho más rápida. El cambio que se viene es el de la reformulación de lo que hace cada uno en su día a día. Acá lo que estamos viendo es que las tecnologías vienen a automatizar una tarea que hoy están haciendo miles de humanos y que esos humanos van a empezar a tener un montón de tiempo libre o las empresas van a empezar a necesitar menos gente para hacer lo mismo. ¿Las empresas van a agrandar sus negocios y emplear todavía más gente como ha pasado en otras ocasiones, como por ejemplo con los cajeros de los bancos? Todavía está por verse. No hay números concretos, pero de lo que no hay ninguna duda es que vamos a hacia una vida muchísimo más automatizada.
—¿Por qué se habla de GPT4 o 5 por ejemplo?
—ChatGPT es una aplicación de la empresa OpenAI, que fue armada a partir del entrenamiento de todo el conocimiento posible al que se pudo tener acceso. Estamos hablando de todos los libros digitales, Wikipedia, un montón de otros sitios. Todos los artículos, los blogs, todo eso se alimentó en una computadora y empezó a entrenar. Es una aplicación sobre un gran modelo de lenguaje. GPT4 es otra versión, es una mejora por sobre chat GPT que trabaja sobre el mismo modelo que su antecesor; pero trae mejoras en lo que es el razonamiento, porque los modelos a veces tienen que pasar por procesos de razonamiento para ofrecer una pregunta. GPT4 trae la posibilidad de meter adentro de la conversación fotos, audios, o sea es lo que se llama un modelo multimodal. La forma, la calidad que tiene para generar texto también es muy superior. GPT5 fue un rumor que al final terminó siendo descartado por la propia empresa principalmente porque ya no hay más data de la que ir a buscar para ser un modelo más grande; entonces están buscando técnicas de refinar, que ya hay. Así que puede ser que tal vez dentro de unos años aparezca un GPT5 con capacidades aún superiores a lo que es GPT4, pero hoy la estrategia de la empresa es sacarle el jugo a GPT4 lo más posible.
—Hace pocos días, Twitter aplicó restricciones de lecturas de tuits para combatir “bots” que alimentan inteligencia artificial. ¿Por qué se toman estas medidas?
—Las empresas que entrenan estos gigantes modelos de lenguaje están desesperadas por ir a buscar datos, y una vez que agotaron todas sus fuentes tienen que ver dónde más ir a buscar. Uno de esos lugares es Twitter. Twitter ofrece lo que se llama una API, que es una forma en la que un algoritmo, una máquina, puede leer directamente los mensajes. Entonces lo que se hace es construir un algoritmo que se conecte con Twitter, que se baje absolutamente todos los mensajes de todos los idiomas, de todos los usuarios posibles, y a partir de ahí tener un repositorio nuevo de data para entrenar estos modelos que tanta data necesitan. Cuando diferentes laboratorios del mundo consumen masivamente Twitter se ven severamente cargados los servidores, y eso se traduce en una carga económica muy pesada. Es algo que se empezó a ver con el advenimiento de estos modelos similares a GPT y todas sus variantes de código abierto. Desde diferentes partes del mundo, diferentes laboratorios están tratando de hacer como si fuese su propio GPT y necesitan de toda esta data. Eso antes no pasaba, antes había algunos usuarios que usaban esta misma tecnología de conectarse a Twitter de manera máquina a máquina para hacer pequeños análisis, pequeñas pruebas o para hacer integraciones de diferentes aplicaciones, como por ejemplo hacer una aplicación que envíe un tuit sin tener nosotros entrar al Twitter. Elon Musk, dueño de Twitter, empieza a ver ese costo tremendo.