¿Va a ser gratis la Inteligencia artificial?
Descifrando el significado del lanzamiento de Llama 3.1. en Open Source
🇺🇸 English version below 👇🏼 3 min. reading ⏳
Esta semana comenzamos con una noticia importante y la terminamos con otra dentro del mundo de la AI. La primera fue el lanzamiento de Llama 3.1 bajo un modelo de código abierto y la segunda ha sido ayer mismo el lanzamiento de SearchGPT, que pretende revolucionar el concepto de búsqueda que hoy existe, basado en Google.
Antes de entrar a valorar el impacto de Llama 3.1, quiero hacer una reflexión sobre el estado actual del conocimiento general sobre la Inteligencia Artificial. A estas alturas del desarrollo de la IA, prácticamente todo el mundo conoce que significa y que posibilidades ofrece. Hay que reconocer la fantástica labor didáctica de ChatGPT en este sentido.
Pero en cuanto se profundiza tan solo un poco en el aspecto tecnológico de la AI, el conocimiento técnico es prácticamente nulo. Si preguntamos que es ChatGPT todo el mundo lo conoce. Pero si preguntamos que es un LLM (Large Language Model), prácticamente nadie sabe que significa (exceptuando por supuesto las personas que saben de tecnología).
Esta introducción viene al caso porque muchas personas me han preguntado que significa el lanzamiento del LLM Llama 3.1 por parte de Meta. La noticia está por todas partes como algo importante, pero casi nadie sabe por qué.
Si quieres descubrir porque es una noticia importante, y que puede implicar a nivel de costes en la implantación de la IA en tu empresa, sigue leyendo
¿Qué es Llama 3.1?
Llama 3.1, se ha presentado como el modelo de lenguaje más avanzado hasta la fecha, según señala la propia Meta. Nota al margen: esto durará poco, en breve saldrá otro actor del mercado diciendo lo mismo.
Llama 3.1. es la competencia del LLM que más conocemos, que no es ni más ni menos que GPT4, que a su vez es la base de nuestro querido ChatGPT.
Por supuesto existen otros modelos LLM que compiten con éstos, tales como son Gemini, Claude, Mistral, Perplexity, Ernie, etc. y otros muchos de menor renombre, pero que ahí están ofreciendo sus capacidades. Ya existen un sinfín de LLMs.
Llama 3.1 se ha presentado también como una revolución en la AI, pero es puro marketing. Ni hay tal revolución, ni va a ser el último que salga con el mismo mensaje en los próximos meses. Eso si, hay que reconocer que los chicos de marketing de Meta lo hacen muy bien.
¿Qué impacto tiene Llama 3.1 y que significa que sea de código abierto?
Lo primero que hay que decir es que Llama NO es de código abierto, a pesar de que así lo anuncien. No cumple con las Directrices de Software Libre de Debian, que se definieron allá por 2007. Llama 3.1. tiene limitaciones importantes, tales como el número de usuarios al mes que puedes llegar a tener, o algunos usos específicos como crear tu propio modelo del lenguaje a partir del suyo.
Pero dejando atrás estos “pequeños detalles”, es cierto que es un avance importante frente a lo que ofrece OpenAI, que no hace honor a su nombre ya que es completamente cerrado. El hecho de que sea de código abierto ofrece muchas más posibilidades a los desarrolladores que creamos aplicaciones basadas en la AI.
¿Es gratis utilizar Llama 3.1. y por tanto no me va costar nada utilizarlo en mi empresa?
La respuesta es un rotundo no. En primer lugar, vas a necesitar que alguien con conocimientos técnicos de este sector, te pueda instalar en un servidor que habrás de pagar tu el software. Después, necesitarás que también alguien con conocimiento técnicos, desarrolle las aplicaciones que quieras que utilicen el LLM (o la Inteligencia Artificial, si lo simplificamos) para conseguir los objetivos que te hayas propuesto. Y por último, tendrás que pagar el mantenimiento de ese servidor.
¿Es más barato utilizar Llama 3.1 que ChatGPT4?
La respuesta en este caso es si. En términos de eficiencia, los tokens que teóricamente consumes con Llama (que se traducen en el coste de mantenimiento de tu servidor), es más económico que los tokens que te va a cobrar OpenAI por utilizar su API de ChatGPT4, para un mismo uso.
¿Cuál es el futuro y que decisión tomar?
Pues intentar adivinar el futuro en estos momentos donde todo evoluciona tan rápido es misión imposible. Pero si se pueden tomar decisiones. Y lo que yo sugiero es conectarse a varios modelos e ir testeando cual responde mejor a nuestras necesidades, tanto desde el punto de vista de las aplicaciones que desarrollamos, como por supuesto desde un punto de vista económico.
Y por no hacer esto más largo, dejo para mi siguiente envío el análisis de la noticia de ayer mismo sobre el lanzamiento de SearchGPT.
Is Artificial Intelligence going to be free?
Unraveling the significance of the Llama 3.1. release in Open Source
This week, we started with significant news in the world of AI and ended with another one. The first was the launch of Llama 3.1 under an open-source model, and the second was yesterday's launch of SearchGPT, which aims to revolutionize the concept of search that exists today based on Google.
Before evaluating the impact of Llama 3.1, I would like to talk about the current state of general knowledge about Artificial Intelligence. At this point in the development of AI, practically everyone knows what it means and what possibilities it offers. We must recognize ChatGPT's fantastic didactic work in this regard.
But as soon as you delve just a little deeper into the technological aspect of AI, technical knowledge is practically nonexistent. If we ask what ChatGPT is, everybody knows it. But if we ask what an LLM (Large Language Model) is, practically nobody knows what it means (except, of course, people who know about technology).
This introduction is relevant because many people have asked me what the release of the LLM Llama 3.1 by Meta means. The news is all over the place as a big deal, but only some people know why.
If you want to find out why it's big news and what it may imply at a cost level in the implementation of AI in your company, keep reading :)
What is Llama 3.1?
According to Meta, Llama 3.1 has been presented as the most advanced language model. But I'm sure another player will soon say the same thing.
Llama 3.1 is the competition of the LLM we know best, GPT4, which is the basis of our beloved ChatGPT.
Of course, other LLM models compete with these, such as Gemini, Claude, Mistral, Perplexity, Ernie, etc., and many others of lesser renown, offering their capabilities. There are already a myriad of LLMs.
Llama 3.1 has been presented as a revolution in IA but is pure marketing. There is no such revolution, nor will it be the last one to come out with the same message in the coming months. But you must admit that the Meta marketing guys are doing very well.
What is the impact of Llama 3.1 and its "open source" model?
The first thing to say is that Llama is NOT open source, even though it is advertised as such. It does not comply with the Debian Free Software Guidelines, defined in 2007. Llama 3.1 has significant limitations, such as the number of users per month you can have or some specific uses, like creating your language model from theirs.
Nevertheless, leaving these "small details" behind is an important step forward compared to what OpenAI offers, which does not live up to its name as it is completely closed.
Is Llama 3.1 free to use? Could I use it at my company for free?
The answer is a resounding NO. First, you will need someone with technical knowledge of this sector to install the software on a server you must pay for. Then, you will also need someone with technical knowledge to develop the applications you want to use, the LLM (or Artificial Intelligence, if we simplify it), to achieve your goals. Finally, you will have to pay for the maintenance of that server.
Is it cheaper to use Llama 3.1 than ChatGPT4?
The answer, in this case, is yes. In terms of efficiency, the tokens you theoretically consume with Llama (which translates into the cost of maintaining your server) are cheaper than the tokens that OpenAI will charge you for using its ChatGPT4 API for the same use.
What is the future, and what decision should be made?
Well, trying to guess the future in these times when everything is evolving so fast is mission impossible. But decisions can be made. Connecting to several models and testing which one responds better to our needs, both from the point of view of the applications we develop and, of course, from an economic point of view.
And, to make this shorter, I will leave the analysis of yesterday's news about the launch of SearchGPT for my next post.