Personal Assistant
Home Settings
Daily Digest Newsletters Papers Ruby Posts AI Posts Ruby: Blogs and News AI: Blogs and News Gem Updates Gem Discoveries Digest Tweets
Twitter Lists Bluesky Lists RSS Lists Tracked Gems
Sign in Explore
b

Alan

bitforth

@pantulis retweeted Yo fui ingeniero en Meta, y siempre seguía FAIR desde adentro. Lo que acaban de publicar es la versión que les dejan publicar.Pero con eso, es más que suficiente para decirles exactamente que es lo que está pasando. TRIBE v2 predice, vértice por vértice sobre la corteza cerebral, qué zonas activa cualquier video. Sin escáneres. Sin humanos. Subes el contenido, obtienes el mapa neural (activación emocional, supresión de razonamiento crítico, modulación prefrontal) antes de que el video lo vea un solo usuario.Ahora considera la posición de Meta:Tiene años de datos de Reels sobre qué contenido retiene atención, genera enojo, provoca compartir. Saben empíricamente qué funciona. TRIBE v2 les da el mecanismo causal de por qué funciona (a nivel de tejido cortical) Eso convierte correlación histórica en capacidad predictiva sobre contenido nuevo.Internamente hay herramientas que se llaman Gatekeepers y Quick Promotions que sirven para inyectar contenido en el feed de poblaciones arbitrarias a escala.Simulador de respuesta cerebral + conocimiento empírico de contenido efectivo + maquinaria de distribución selectiva. El pipeline está completo.Y luego está Thiel. Inversor y amigo personal de Zuck. Fundador de Palantir, cuyo negocio es análisis de poblaciones a escala para gobiernos e inteligencia. NO es descabellado observar que confluyen los incentivos de plataformas construidas por las mismas personas.La licencia CC BY-NC dice que Meta retiene los derechos comerciales del predictor de respuesta cerebral más preciso jamás construido.Y recuerda, esto es lo que decidieron hacer público. AI at Meta @AIatMeta Today we're introducing TRIBE v2 (Trimodal Brain Encoder), a foundation model trained to predict how the human brain responds to almost any sight or sound.Building on our Algonauts 2025 award-winning architecture, TRIBE v2 draws on 500+ hours of fMRI recordings from 700+ people to create a digital twin of neural activity and enable zero-shot predictions for new subjects, languages, and tasks.Try the demo and learn more here: https://t.co/VkMd1YpQWI Posted Mar 26, 2026 at 1:04PM Posted Mar 27, 2026 at 1:52AM

8:31 AM · Mar 29, 2026