🐦 Twitter Post Details

Viewing enriched Twitter post

@ErickSky

NECESITO URGENTEMENTE QUE LEAS ESTO: Acabo de ver la IA del FUTURO... y cabe en un pendrive de 512GB que te sobra del 2018. No es hype de YouTuber con la estúpida cara de sorprendida que ponen los imbéciles (golpéenme fuerte si un día hago esa idiotez). No es "pronto". Es YA. @xenovacom publicó la prueba de que los LLMs de 1-bit reales (no la cuantización) acaban de explotar el juego entero. Se llama Bonsai 1.7B de PrismML. - 1.7 mil millones de parámetros. - 290 MB. - ~100 tokens por segundo en el navegador. - Todo con WebGPU. - Todo true 1-bit end-to-end. Y sí, lo puedes probar ahora mismo en Hugging Face. ¿Por qué esto es absurdamente genial y no solo otro modelo raro? Déjame explicártelo como si estuviéramos tomando café y yo estuviera perdiendo la cabeza (porque lo estoy): Antes si querías correr Llama 3 8B localmente ibas y descargabas 5-6 GB, rezabas para que tu GPU no se muera y terminas usando 16 GB de RAM. Ahora: solo unos putísimos 290 MB. Sí, menos que una temporada de The Office en 1080p. Puedes tenerlo descargado en 3 segundos con conexión de hotel. Tu abuela podría correrlo en su laptop del 2015 sin que se ponga a llorar. La velocidad es insultante: 100 tokens/seg en Chrome. En Chrome. Sin instalar nada. Sin cuenta de OpenAI. Sin pagar API. Es más rápido que muchos setups locales caros que la gente presume en Twitter. Imagínate: estás en un avión sin wifi, abres una pestaña y tienes un modelo que razona casi en tiempo real. La gente va a empezar a hacer prompts en el metro y nadie va a entender qué carajo está pasando. Ah, y esto no es solo "corre más rápido". Es "puedo poner IA en un smartwatch, en un dron, en un Raspberry Pi, en un teléfono viejo… y no se va a quemar la batería en 8 minutos". Solo necesitas un navegador. Cualquiera. En cualquier parte del mundo. Estudiantes en países con internet lento, devs indie, makers, gente que solo quiere jugar… todos ganan. La barrera acaba de desaparecer. PrismML no hizo "otro modelo cuantizado". Hicieron el primer LLM 1-bit que realmente funciona bien y lo aceleraron con WebGPU como si fuera un juego de Unreal Engine 5. Es ingeniería de otro nivel. Esto es el equivalente a cuando pasamos de los celulares con batería de 3 días a los iPhone que duran medio día… pero al revés: volvimos a la eficiencia brutal pero con 1000x más potencia. El futuro no es "IA en la nube más barata". El futuro es IA en tu bolsillo, en tu laptop vieja, en tu smart TV, en tu refrigerador si quieres. Todo local. Todo privado. Todo rápido. Y Bonsai es solo el principio. Si esto escala (y va a escalar), en meses vamos a tener modelos de 7B-13B corriendo a velocidad loca en cualquier dispositivo mediocre. La era del "todo en el browser" acaba de comenzar. Ve, prueba. DEMOOO👇

📊 Media Metadata

{
  "media": [
    {
      "url": "https://crmoxkoizveukayfjuyo.supabase.co/storage/v1/object/public/media/posts/2044558671384822130/media_0.mp4",
      "media_url": "https://crmoxkoizveukayfjuyo.supabase.co/storage/v1/object/public/media/posts/2044558671384822130/media_0.mp4",
      "type": "video",
      "filename": "media_0.mp4"
    }
  ],
  "processed_at": "2026-04-16T00:19:53.139729",
  "pipeline_version": "2.0"
}

🔧 Raw API Response

{
  "type": "tweet",
  "id": "2044558671384822130",
  "url": "https://x.com/ErickSky/status/2044558671384822130",
  "twitterUrl": "https://twitter.com/ErickSky/status/2044558671384822130",
  "text": "NECESITO URGENTEMENTE QUE LEAS ESTO:\n\nAcabo de ver la IA del FUTURO... y cabe en un pendrive de 512GB que te sobra del 2018.\n\nNo es hype de YouTuber con la estúpida cara de sorprendida que ponen los imbéciles (golpéenme fuerte si un día hago esa idiotez). \n\nNo es \"pronto\".\n\nEs YA.  \n\n@xenovacom publicó la prueba de que los LLMs de 1-bit reales (no la cuantización) acaban de explotar el juego entero.\n\nSe llama Bonsai 1.7B de PrismML.\n\n- 1.7 mil millones de parámetros.\n- 290 MB.\n- ~100 tokens por segundo en el navegador.\n- Todo con WebGPU.\n- Todo true 1-bit end-to-end.\n\nY sí, lo puedes probar ahora mismo en Hugging Face.  \n\n¿Por qué esto es absurdamente genial y no solo otro modelo raro? \n\nDéjame explicártelo como si estuviéramos tomando café y yo estuviera perdiendo la cabeza (porque lo estoy):\n\nAntes si querías correr Llama 3 8B localmente ibas y descargabas 5-6 GB, rezabas para que tu GPU no se muera y terminas usando 16 GB de RAM.\n\nAhora: solo unos putísimos 290 MB.\n\nSí, menos que una temporada de The Office en 1080p. \n\nPuedes tenerlo descargado en 3 segundos con conexión de hotel. \n\nTu abuela podría correrlo en su laptop del 2015 sin que se ponga a llorar.\n\nLa velocidad es insultante: 100 tokens/seg en Chrome. En Chrome. Sin instalar nada. Sin cuenta de OpenAI. Sin pagar API.\n\nEs más rápido que muchos setups locales caros que la gente presume en Twitter.\n\nImagínate: estás en un avión sin wifi, abres una pestaña y tienes un modelo que razona casi en tiempo real.\n\nLa gente va a empezar a hacer prompts en el metro y nadie va a entender qué carajo está pasando.\n\nAh, y esto no es solo \"corre más rápido\". \n\nEs \"puedo poner IA en un smartwatch, en un dron, en un Raspberry Pi, en un teléfono viejo… y no se va a quemar la batería en 8 minutos\".\n\nSolo necesitas un navegador. \nCualquiera. \nEn cualquier parte del mundo.\n\nEstudiantes en países con internet lento, devs indie, makers, gente que solo quiere jugar… todos ganan. \n\nLa barrera acaba de desaparecer.\n\nPrismML no hizo \"otro modelo cuantizado\". Hicieron el primer LLM 1-bit que realmente funciona bien y lo aceleraron con WebGPU como si fuera un juego de Unreal Engine 5. \n\nEs ingeniería de otro nivel.\n\nEsto es el equivalente a cuando pasamos de los celulares con batería de 3 días a los iPhone que duran medio día… pero al revés: volvimos a la eficiencia brutal pero con 1000x más potencia.\n\nEl futuro no es \"IA en la nube más barata\".\n\nEl futuro es IA en tu bolsillo, en tu laptop vieja, en tu smart TV, en tu refrigerador si quieres. \n\nTodo local. \nTodo privado. \nTodo rápido.\n\nY Bonsai es solo el principio.  \n\nSi esto escala (y va a escalar), en meses vamos a tener modelos de 7B-13B corriendo a velocidad loca en cualquier dispositivo mediocre.  \n\nLa era del \"todo en el browser\" acaba de comenzar.  \n\nVe, prueba.\n\nDEMOOO👇",
  "source": "Twitter for iPhone",
  "retweetCount": 6,
  "replyCount": 5,
  "likeCount": 52,
  "quoteCount": 1,
  "viewCount": 3834,
  "createdAt": "Wed Apr 15 23:29:07 +0000 2026",
  "lang": "es",
  "bookmarkCount": 79,
  "isReply": false,
  "inReplyToId": null,
  "conversationId": "2044558671384822130",
  "displayTextRange": [
    0,
    277
  ],
  "inReplyToUserId": null,
  "inReplyToUsername": null,
  "author": {
    "type": "user",
    "userName": "ErickSky",
    "url": "https://x.com/ErickSky",
    "twitterUrl": "https://twitter.com/ErickSky",
    "id": "52955938",
    "name": "Erick",
    "isVerified": false,
    "isBlueVerified": true,
    "verifiedType": null,
    "profilePicture": "https://pbs.twimg.com/profile_images/2014382652866887681/ou6iKZw5_normal.jpg",
    "coverPicture": "https://pbs.twimg.com/profile_banners/52955938/1746631634",
    "description": "",
    "location": "",
    "followers": 33125,
    "following": 252,
    "status": "",
    "canDm": true,
    "canMediaTag": false,
    "createdAt": "Thu Jul 02 03:33:11 +0000 2009",
    "entities": {
      "description": {
        "urls": []
      },
      "url": {}
    },
    "fastFollowersCount": 0,
    "favouritesCount": 30627,
    "hasCustomTimelines": true,
    "isTranslator": true,
    "mediaCount": 1350,
    "statusesCount": 10742,
    "withheldInCountries": [],
    "affiliatesHighlightedLabel": {},
    "possiblySensitive": false,
    "pinnedTweetIds": [
      "2041980155388641296"
    ],
    "profile_bio": {
      "description": "Telegram 👇",
      "entities": {
        "description": {
          "hashtags": [],
          "symbols": [],
          "urls": [],
          "user_mentions": []
        },
        "url": {
          "urls": [
            {
              "display_url": "whop.com/ericksky/comun…",
              "expanded_url": "https://whop.com/ericksky/comunidad-telegram-30-dias/",
              "indices": [
                0,
                23
              ],
              "url": "https://t.co/W2B8Wudrce"
            }
          ]
        }
      }
    },
    "isAutomated": false,
    "automatedBy": null
  },
  "extendedEntities": {
    "media": [
      {
        "additional_media_info": {
          "monetizable": true
        },
        "display_url": "pic.twitter.com/fvQECBjxVW",
        "expanded_url": "https://twitter.com/ErickSky/status/2044558671384822130/video/1",
        "ext_media_availability": {
          "status": "Available"
        },
        "id_str": "2044555661166489601",
        "indices": [
          278,
          301
        ],
        "media_key": "13_2044555661166489601",
        "media_results": {
          "id": "QXBpTWVkaWFSZXN1bHRzOgwABAoAARxfuIqTV7ABAAA=",
          "result": {
            "__typename": "ApiMedia",
            "id": "QXBpTWVkaWE6DAAECgABHF+4ipNXsAEAAA==",
            "media_key": "13_2044555661166489601"
          }
        },
        "media_url_https": "https://pbs.twimg.com/amplify_video_thumb/2044555661166489601/img/6E4_NvlfLsomjsll.jpg",
        "original_info": {
          "focus_rects": [],
          "height": 1770,
          "width": 2382
        },
        "sizes": {
          "large": {
            "h": 1522,
            "w": 2048
          }
        },
        "type": "video",
        "url": "https://t.co/fvQECBjxVW",
        "video_info": {
          "aspect_ratio": [
            397,
            295
          ],
          "duration_millis": 33600,
          "variants": [
            {
              "content_type": "application/x-mpegURL",
              "url": "https://video.twimg.com/amplify_video/2044555661166489601/pl/eRCQjLkhr0EhQEPE.m3u8?tag=21&v=cfc"
            },
            {
              "bitrate": 256000,
              "content_type": "video/mp4",
              "url": "https://video.twimg.com/amplify_video/2044555661166489601/vid/avc1/362x270/88I83tM4ASQyRBIt.mp4?tag=21"
            },
            {
              "bitrate": 832000,
              "content_type": "video/mp4",
              "url": "https://video.twimg.com/amplify_video/2044555661166489601/vid/avc1/484x360/fBGv3PbkoYpLltMR.mp4?tag=21"
            },
            {
              "bitrate": 2176000,
              "content_type": "video/mp4",
              "url": "https://video.twimg.com/amplify_video/2044555661166489601/vid/avc1/968x720/jp9VYIYGZU1blkHS.mp4?tag=21"
            },
            {
              "bitrate": 10368000,
              "content_type": "video/mp4",
              "url": "https://video.twimg.com/amplify_video/2044555661166489601/vid/avc1/1452x1080/lZiX4Z2Ddc7V55k0.mp4?tag=21"
            },
            {
              "bitrate": 25128000,
              "content_type": "video/mp4",
              "url": "https://video.twimg.com/amplify_video/2044555661166489601/vid/avc1/2382x1770/USOuHZBDmSeZ70An.mp4?tag=21"
            }
          ]
        }
      }
    ]
  },
  "card": null,
  "place": {},
  "entities": {
    "hashtags": [],
    "symbols": [],
    "timestamps": [],
    "urls": [],
    "user_mentions": [
      {
        "id_str": "4560264219",
        "indices": [
          285,
          295
        ],
        "name": "Xenova",
        "screen_name": "xenovacom"
      }
    ]
  },
  "quoted_tweet": null,
  "retweeted_tweet": null,
  "isLimitedReply": false,
  "communityInfo": null,
  "article": null
}