【Dot CSV】Lo que OpenAI NO quería que supieras sobre GPT4 – (De los MoEs a Mixtral)



Dot CSV :Lo que OpenAI NO quería que supieras sobre GPT4 – (De los MoEs a Mixtral)

Lo que OpenAI NO quería que supieras sobre GPT4 - (De los MoEs a Mixtral)

OpenAI ha intentado mantener en secreto durante todo el año qué hay detrás del modelo más potente de ChatGPT. En el vídeo de hoy os explicaré en qué consiste el funcionamiento de GPT-4 y su arquitectura de tipo MoE (Mixture-of-expert) que recientemente ha ganado mucha más importancia tras la salida del modelo open source Mixtral 8x7b, de la compañía Mistral AI.

► Blog post de Mistral AI sobre Mixtral 8x7b
https://mistral.ai/news/mixtral-of-experts/

► Github del Colab con Mixtral 8x7b
https://github.com/dvmazur/mixtral-offloading

► Podcast de George Hotz
https://youtu.be/WJWHIZoBOj8?si=2xZGVrOQYOROKF-G

📹 EDICIÓN: Carlos Santana y Diego Gonzalez (Diocho)

— ¡MÁS DOTCSV! —-

📣 NotCSV – ¡Canal Secundario!
https://www.youtube.com/c/notcsv
💸 Patreon : https://www.patreon.com/dotcsv
👓 Facebook : https://www.facebook.com/AI.dotCSV/
👾 Twitch!!! : https://www.twitch.tv/dotcsv
🐥 Twitter : https://twitter.com/dotCSV
📸 Instagram : https://www.instagram.com/dotcsv/

— ¡MÁS CIENCIA! —

🔬 Este canal forma parte de la red de divulgación de SCENIO. Si quieres conocer otros fantásticos proyectos de divulgación entra aquí:

http://scenio.es/colaboradores