Opera está introduciendo una innovadora función en su navegador que puede cambiar la forma en que interactuamos con la inteligencia artificial (IA) en línea. En lugar de depender de modelos de lenguaje grandes (LLM) alojados en servidores externos, Opera ahora ofrece la posibilidad de tener LLM alojados localmente en el navegador.
Esta decisión representa un giro significativo en el paradigma de la IA en la web. En un comunicado de prensa reciente, Opera anunció la inclusión de «soporte experimental» para alrededor de 150 variantes locales de LLM en 50 familias de aplicaciones de IA. Entre estas variantes se incluyen LLama (Meta), Gemma (Google) y otras destacadas. Sin embargo, inicialmente, este soporte estará dirigido únicamente a los desarrolladores, quienes podrán aprovechar estas capacidades para determinar qué LLM prefieren emplear en sus aplicaciones de IA.
El uso de modelos locales de lenguaje grande significa que los datos de los usuarios se mantienen localmente, en su dispositivo, lo que les permite utilizar la IA generativa sin necesidad de enviar información a un servidor.
Opera
Para hacer uso de estas funciones, los desarrolladores deberán descargar el modelo de IA seleccionado en sus dispositivos locales y diseñar sus aplicaciones en torno a él. Aunque aún queda por ver cómo esta función será recibida por los usuarios no desarrolladores, esta innovación promete cambiar la dinámica habitual de interacción con la IA en la web.
Si la función supera con éxito la fase de prueba, podría ser posible que los usuarios elijan qué IA desean utilizar como asistente en el navegador Opera, ya sea el servicio Aria AI de Opera o alguna de las opciones locales disponibles. Más información, en el blog de Opera .
Descubre más desde 👨💻 hiberhernandez
Suscríbete y recibe las últimas entradas en tu correo electrónico.