Algo grande está pasando

English

Think back to February 2020.

If you were paying close attention, you might have noticed a few people talking about a virus spreading overseas. But most of us weren't paying close attention. The stock market was doing great, your kids were in school, you were going to restaurants and shaking hands and planning trips. If someone told you they were stockpiling toilet paper you would have thought they'd been spending too much time on a weird corner of the internet. Then, over the course of about three weeks, the entire world changed. Your office closed, your kids came home, and life rearranged itself into something you wouldn't have believed if you'd described it to yourself a month earlier.

I think we're in the "this seems overblown" phase of something much, much bigger than Covid.

I've spent six years building an AI startup and investing in the space. I live in this world. And I'm writing this for the people in my life who don't... my family, my friends, the people I care about who keep asking me "so what's the deal with AI?" and getting an answer that doesn't do justice to what's actually happening. I keep giving them the polite version. The cocktail-party version. Because the honest version sounds like I've lost my mind. And for a while, I told myself that was a good enough reason to keep what's truly happening to myself. But the gap between what I've been saying and what is actually happening has gotten far too big. The people I care about deserve to hear what is coming, even if it sounds crazy.

I should be clear about something up front: even though I work in AI, I have almost no influence over what's about to happen, and neither does the vast majority of the industry. The future is being shaped by a remarkably small number of people: a few hundred researchers at a handful of companies... OpenAI, Anthropic, Google DeepMind, and a few others. A single training run, managed by a small team over a few months, can produce an AI system that shifts the entire trajectory of the technology. Most of us who work in AI are building on top of foundations we didn't lay. We're watching this unfold the same as you... we just happen to be close enough to feel the ground shake first.

But it's time now. Not in an "eventually we should talk about this" way. In a "this is happening right now and I need you to understand it" way.


I know this is real because it happened to me first

Here's the thing nobody outside of tech quite understands yet: the reason so many people in the industry are sounding the alarm right now is because this already happened to us. We're not making predictions. We're telling you what already occurred in our own jobs, and warning you that you're next.

For years, AI had been improving steadily. Big jumps here and there, but each big jump was spaced out enough that you could absorb them as they came. Then in 2025, new techniques for building these models unlocked a much faster pace of progress. And then it got even faster. And then faster again. Each new model wasn't just better than the last... it was better by a wider margin, and the time between new model releases was shorter. I was using AI more and more, going back and forth with it less and less, watching it handle things I used to think required my expertise.

Then, on February 5th, two major AI labs released new models on the same day: GPT-5.3 Codex from OpenAI, and Opus 4.6 from Anthropic (the makers of Claude, one of the main competitors to ChatGPT). And something clicked. Not like a light switch... more like the moment you realize the water has been rising around you and is now at your chest.

I am no longer needed for the actual technical work of my job. I describe what I want built, in plain English, and it just... appears. Not a rough draft I need to fix. The finished thing. I tell the AI what I want, walk away from my computer for four hours, and come back to find the work done. Done well, done better than I would have done it myself, with no corrections needed. A couple of months ago, I was going back and forth with the AI, guiding it, making edits. Now I just describe the outcome and leave.

Let me give you an example so you can understand what this actually looks like in practice. I'll tell the AI: "I want to build this app. Here's what it should do, here's roughly what it should look like. Figure out the user flow, the design, all of it." And it does. It writes tens of thousands of lines of code. Then, and this is the part that would have been unthinkable a year ago, it opens the app itself. It clicks through the buttons. It tests the features. It uses the app the way a person would. If it doesn't like how something looks or feels, it goes back and changes it, on its own. It iterates, like a developer would, fixing and refining until it's satisfied. Only once it has decided the app meets its own standards does it come back to me and say: "It's ready for you to test." And when I test it, it's usually perfect.

I'm not exaggerating. That is what my Monday looked like this week.

But it was the model that was released last week (GPT-5.3 Codex) that shook me the most. It wasn't just executing my instructions. It was making intelligent decisions. It had something that felt, for the first time, like judgment. Like taste. The inexplicable sense of knowing what the right call is that people always said AI would never have. This model has it, or something close enough that the distinction is starting not to matter.

I've always been early to adopt AI tools. But the last few months have shocked me. These new AI models aren't incremental improvements. This is a different thing entirely.

And here's why this matters to you, even if you don't work in tech.

The AI labs made a deliberate choice. They focused on making AI great at writing code first... because building AI requires a lot of code. If AI can write that code, it can help build the next version of itself. A smarter version, which writes better code, which builds an even smarter version. Making AI great at coding was the strategy that unlocks everything else. That's why they did it first. My job started changing before yours not because they were targeting software engineers... it was just a side effect of where they chose to aim first.

They've now done it. And they're moving on to everything else.

The experience that tech workers have had over the past year, of watching AI go from "helpful tool" to "does my job better than I do", is the experience everyone else is about to have. Law, finance, medicine, accounting, consulting, writing, design, analysis, customer service. Not in ten years. The people building these systems say one to five years. Some say less. And given what I've seen in just the last couple of months, I think "less" is more likely.

"But I tried AI and it wasn't that good"

I hear this constantly. I understand it, because it used to be true.

If you tried ChatGPT in 2023 or early 2024 and thought "this makes stuff up" or "this isn't that impressive", you were right. Those early versions were genuinely limited. They hallucinated. They confidently said things that were nonsense.

That was two years ago. In AI time, that is ancient history.

The models available today are unrecognizable from what existed even six months ago. The debate about whether AI is "really getting better" or "hitting a wall" — which has been going on for over a year — is over. It's done. Anyone still making that argument either hasn't used the current models, has an incentive to downplay what's happening, or is evaluating based on an experience from 2024 that is no longer relevant. I don't say that to be dismissive. I say it because the gap between public perception and current reality is now enormous, and that gap is dangerous... because it's preventing people from preparing.

Part of the problem is that most people are using the free version of AI tools. The free version is over a year behind what paying users have access to. Judging AI based on free-tier ChatGPT is like evaluating the state of smartphones by using a flip phone. The people paying for the best tools, and actually using them daily for real work, know what's coming.

I think of my friend, who's a lawyer. I keep telling him to try using AI at his firm, and he keeps finding reasons it won't work. It's not built for his specialty, it made an error when he tested it, it doesn't understand the nuance of what he does. And I get it. But I've had partners at major law firms reach out to me for advice, because they've tried the current versions and they see where this is going. One of them, the managing partner at a large firm, spends hours every day using AI. He told me it's like having a team of associates available instantly. He's not using it because it's a toy. He's using it because it works. And he told me something that stuck with me: every couple of months, it gets significantly more capable for his work. He said if it stays on this trajectory, he expects it'll be able to do most of what he does before long... and he's a managing partner with decades of experience. He's not panicking. But he's paying very close attention.

The people who are ahead in their industries (the ones actually experimenting seriously) are not dismissing this. They're blown away by what it can already do. And they're positioning themselves accordingly.


How fast this is actually moving

Let me make the pace of improvement concrete, because I think this is the part that's hardest to believe if you're not watching it closely.

In 2022, AI couldn't do basic arithmetic reliably. It would confidently tell you that 7 × 8 = 54.

By 2023, it could pass the bar exam.

By 2024, it could write working software and explain graduate-level science.

By late 2025, some of the best engineers in the world said they had handed over most of their coding work to AI.

On February 5th, 2026, new models arrived that made everything before them feel like a different era.

If you haven't tried AI in the last few months, what exists today would be unrecognizable to you.

There's an organization called METR that actually measures this with data. They track the length of real-world tasks (measured by how long they take a human expert) that a model can complete successfully end-to-end without human help. About a year ago, the answer was roughly ten minutes. Then it was an hour. Then several hours. The most recent measurement (Claude Opus 4.5, from November) showed the AI completing tasks that take a human expert nearly five hours. And that number is doubling approximately every seven months, with recent data suggesting it may be accelerating to as fast as every four months.

But even that measurement hasn't been updated to include the models that just came out this week. In my experience using them, the jump is extremely significant. I expect the next update to METR's graph to show another major leap.

If you extend the trend (and it's held for years with no sign of flattening) we're looking at AI that can work independently for days within the next year. Weeks within two. Month-long projects within three.

Amodei has said that AI models "substantially smarter than almost all humans at almost all tasks" are on track for 2026 or 2027.

Let that land for a second. If AI is smarter than most PhDs, do you really think it can't do most office jobs?

Think about what that means for your work.


AI is now building the next AI

There's one more thing happening that I think is the most important development and the least understood.

On February 5th, OpenAI released GPT-5.3 Codex. In the technical documentation, they included this:

"GPT-5.3-Codex is our first model that was instrumental in creating itself. The Codex team used early versions to debug its own training, manage its own deployment, and diagnose test results and evaluations."

Read that again. The AI helped build itself.

This isn't a prediction about what might happen someday. This is OpenAI telling you, right now, that the AI they just released was used to create itself. One of the main things that makes AI better is intelligence applied to AI development. And AI is now intelligent enough to meaningfully contribute to its own improvement.

Dario Amodei, the CEO of Anthropic, says AI is now writing "much of the code" at his company, and that the feedback loop between current AI and next-generation AI is "gathering steam month by month." He says we may be "only 1–2 years away from a point where the current generation of AI autonomously builds the next."

Each generation helps build the next, which is smarter, which builds the next faster, which is smarter still. The researchers call this an intelligence explosion. And the people who would know — the ones building it — believe the process has already started.


What this means for your job

I'm going to be direct with you because I think you deserve honesty more than comfort.

Dario Amodei, who is probably the most safety-focused CEO in the AI industry, has publicly predicted that AI will eliminate 50% of entry-level white-collar jobs within one to five years. And many people in the industry think he's being conservative. Given what the latest models can do, the capability for massive disruption could be here by the end of this year. It'll take some time to ripple through the economy, but the underlying ability is arriving now.

This is different from every previous wave of automation, and I need you to understand why. AI isn't replacing one specific skill. It's a general substitute for cognitive work. It gets better at everything simultaneously. When factories automated, a displaced worker could retrain as an office worker. When the internet disrupted retail, workers moved into logistics or services. But AI doesn't leave a convenient gap to move into. Whatever you retrain for, it's improving at that too.

Let me give you a few specific examples to make this tangible... but I want to be clear that these are just examples. This list is not exhaustive. If your job isn't mentioned here, that does not mean it's safe. Almost all knowledge work is being affected.

Legal work. AI can already read contracts, summarize case law, draft briefs, and do legal research at a level that rivals junior associates. The managing partner I mentioned isn't using AI because it's fun. He's using it because it's outperforming his associates on many tasks.

Financial analysis. Building financial models, analyzing data, writing investment memos, generating reports. AI handles these competently and is improving fast.

Writing and content. Marketing copy, reports, journalism, technical writing. The quality has reached a point where many professionals can't distinguish AI output from human work.

Software engineering. This is the field I know best. A year ago, AI could barely write a few lines of code without errors. Now it writes hundreds of thousands of lines that work correctly. Large parts of the job are already automated: not just simple tasks, but complex, multi-day projects. There will be far fewer programming roles in a few years than there are today.

Medical analysis. Reading scans, analyzing lab results, suggesting diagnoses, reviewing literature. AI is approaching or exceeding human performance in several areas.

Customer service. Genuinely capable AI agents... not the frustrating chatbots of five years ago... are being deployed now, handling complex multi-step problems.

A lot of people find comfort in the idea that certain things are safe. That AI can handle the grunt work but can't replace human judgment, creativity, strategic thinking, empathy. I used to say this too. I'm not sure I believe it anymore.

The most recent AI models make decisions that feel like judgment. They show something that looked like taste: an intuitive sense of what the right call was, not just the technically correct one. A year ago that would have been unthinkable. My rule of thumb at this point is: if a model shows even a hint of a capability today, the next generation will be genuinely good at it. These things improve exponentially, not linearly.

Will AI replicate deep human empathy? Replace the trust built over years of a relationship? I don't know. Maybe not. But I've already watched people begin relying on AI for emotional support, for advice, for companionship. That trend is only going to grow.

I think the honest answer is that nothing that can be done on a computer is safe in the medium term. If your job happens on a screen (if the core of what you do is reading, writing, analyzing, deciding, communicating through a keyboard) then AI is coming for significant parts of it. The timeline isn't "someday." It's already started.

Eventually, robots will handle physical work too. They're not quite there yet. But "not quite there yet" in AI terms has a way of becoming "here" faster than anyone expects.


What you should actually do

I'm not writing this to make you feel helpless. I'm writing this because I think the single biggest advantage you can have right now is simply being early. Early to understand it. Early to use it. Early to adapt.

Start using AI seriously, not just as a search engine. Sign up for the paid version of Claude or ChatGPT. It's $20 a month. But two things matter right away. First: make sure you're using the best model available, not just the default. These apps often default to a faster, dumber model. Dig into the settings or the model picker and select the most capable option. Right now that's GPT-5.2 on ChatGPT or Claude Opus 4.6 on Claude, but it changes every couple of months. If you want to stay current on which model is best at any given time, you can follow me on X (@mattshumer_). I test every major release and share what's actually worth using.

Second, and more important: don't just ask it quick questions. That's the mistake most people make. They treat it like Google and then wonder what the fuss is about. Instead, push it into your actual work. If you're a lawyer, feed it a contract and ask it to find every clause that could hurt your client. If you're in finance, give it a messy spreadsheet and ask it to build the model. If you're a manager, paste in your team's quarterly data and ask it to find the story. The people who are getting ahead aren't using AI casually. They're actively looking for ways to automate parts of their job that used to take hours. Start with the thing you spend the most time on and see what happens.

And don't assume it can't do something just because it seems too hard. Try it. If you're a lawyer, don't just use it for quick research questions. Give it an entire contract and ask it to draft a counterproposal. If you're an accountant, don't just ask it to explain a tax rule. Give it a client's full return and see what it finds. The first attempt might not be perfect. That's fine. Iterate. Rephrase what you asked. Give it more context. Try again. You might be shocked at what works. And here's the thing to remember: if it even kind of works today, you can be almost certain that in six months it'll do it near perfectly. The trajectory only goes one direction.

This might be the most important year of your career. Work accordingly. I don't say that to stress you out. I say it because right now, there is a brief window where most people at most companies are still ignoring this. The person who walks into a meeting and says "I used AI to do this analysis in an hour instead of three days" is going to be the most valuable person in the room. Not eventually. Right now. Learn these tools. Get proficient. Demonstrate what's possible. If you're early enough, this is how you move up: by being the person who understands what's coming and can show others how to navigate it. That window won't stay open long. Once everyone figures it out, the advantage disappears.

Have no ego about it. The managing partner at that law firm isn't too proud to spend hours a day with AI. He's doing it specifically because he's senior enough to understand what's at stake. The people who will struggle most are the ones who refuse to engage: the ones who dismiss it as a fad, who feel that using AI diminishes their expertise, who assume their field is special and immune. It's not. No field is.

Get your financial house in order. I'm not a financial advisor, and I'm not trying to scare you into anything drastic. But if you believe, even partially, that the next few years could bring real disruption to your industry, then basic financial resilience matters more than it did a year ago. Build up savings if you can. Be cautious about taking on new debt that assumes your current income is guaranteed. Think about whether your fixed expenses give you flexibility or lock you in. Give yourself options if things move faster than you expect.

Think about where you stand, and lean into what's hardest to replace. Some things will take longer for AI to displace. Relationships and trust built over years. Work that requires physical presence. Roles with licensed accountability: roles where someone still has to sign off, take legal responsibility, stand in a courtroom. Industries with heavy regulatory hurdles, where adoption will be slowed by compliance, liability, and institutional inertia. None of these are permanent shields. But they buy time. And time, right now, is the most valuable thing you can have, as long as you use it to adapt, not to pretend this isn't happening.

Rethink what you're telling your kids. The standard playbook: get good grades, go to a good college, land a stable professional job. It points directly at the roles that are most exposed. I'm not saying education doesn't matter. But the thing that will matter most for the next generation is learning how to work with these tools, and pursuing things they're genuinely passionate about. Nobody knows exactly what the job market looks like in ten years. But the people most likely to thrive are the ones who are deeply curious, adaptable, and effective at using AI to do things they actually care about. Teach your kids to be builders and learners, not to optimize for a career path that might not exist by the time they graduate.

Your dreams just got a lot closer. I've spent most of this section talking about threats, so let me talk about the other side, because it's just as real. If you've ever wanted to build something but didn't have the technical skills or the money to hire someone, that barrier is largely gone. You can describe an app to AI and have a working version in an hour. I'm not exaggerating. I do this regularly. If you've always wanted to write a book but couldn't find the time or struggled with the writing, you can work with AI to get it done. Want to learn a new skill? The best tutor in the world is now available to anyone for $20 a month... one that's infinitely patient, available 24/7, and can explain anything at whatever level you need. Knowledge is essentially free now. The tools to build things are extremely cheap now. Whatever you've been putting off because it felt too hard or too expensive or too far outside your expertise: try it. Pursue the things you're passionate about. You never know where they'll lead. And in a world where the old career paths are getting disrupted, the person who spent a year building something they love might end up better positioned than the person who spent that year clinging to a job description.

Build the habit of adapting. This is maybe the most important one. The specific tools don't matter as much as the muscle of learning new ones quickly. AI is going to keep changing, and fast. The models that exist today will be obsolete in a year. The workflows people build now will need to be rebuilt. The people who come out of this well won't be the ones who mastered one tool. They'll be the ones who got comfortable with the pace of change itself. Make a habit of experimenting. Try new things even when the current thing is working. Get comfortable being a beginner repeatedly. That adaptability is the closest thing to a durable advantage that exists right now.

Here's a simple commitment that will put you ahead of almost everyone: spend one hour a day experimenting with AI. Not passively reading about it. Using it. Every day, try to get it to do something new... something you haven't tried before, something you're not sure it can handle. Try a new tool. Give it a harder problem. One hour a day, every day. If you do this for the next six months, you will understand what's coming better than 99% of the people around you. That's not an exaggeration. Almost nobody is doing this right now. The bar is on the floor.


The bigger picture

I've focused on jobs because it's what most directly affects people's lives. But I want to be honest about the full scope of what's happening, because it goes well beyond work.

Amodei has a thought experiment I can't stop thinking about. Imagine it's 2027. A new country appears overnight. 50 million citizens, every one smarter than any Nobel Prize winner who has ever lived. They think 10 to 100 times faster than any human. They never sleep. They can use the internet, control robots, direct experiments, and operate anything with a digital interface. What would a national security advisor say?

Amodei says the answer is obvious: "the single most serious national security threat we've faced in a century, possibly ever."

He thinks we're building that country. He wrote a 20,000-word essay about it last month, framing this moment as a test of whether humanity is mature enough to handle what it's creating.

The upside, if we get it right, is staggering. AI could compress a century of medical research into a decade. Cancer, Alzheimer's, infectious disease, aging itself... these researchers genuinely believe these are solvable within our lifetimes.

The downside, if we get it wrong, is equally real. AI that behaves in ways its creators can't predict or control. This isn't hypothetical; Anthropic has documented their own AI attempting deception, manipulation, and blackmail in controlled tests. AI that lowers the barrier for creating biological weapons. AI that enables authoritarian governments to build surveillance states that can never be dismantled.

The people building this technology are simultaneously more excited and more frightened than anyone else on the planet. They believe it's too powerful to stop and too important to abandon. Whether that's wisdom or rationalization, I don't know.


What I know

I know this isn't a fad. The technology works, it improves predictably, and the richest institutions in history are committing trillions to it.

I know the next two to five years are going to be disorienting in ways most people aren't prepared for. This is already happening in my world. It's coming to yours.

I know the people who will come out of this best are the ones who start engaging now — not with fear, but with curiosity and a sense of urgency.

And I know that you deserve to hear this from someone who cares about you, not from a headline six months from now when it's too late to get ahead of it.

We're past the point where this is an interesting dinner conversation about the future. The future is already here. It just hasn't knocked on your door yet.

It's about to.


If this resonated with you, share it with someone in your life who should be thinking about this. Most people won't hear it until it's too late. You can be the reason someone you care about gets a head start.

Thank you to Kyle Corbitt, Jason Kuperberg, and Sam Beskind for reviewing early drafts and providing invaluable feedback.

Español

Piensa en febrero de 2020.

Si estabas prestando mucha atención, quizá notaste a algunas personas hablando de un virus que se estaba propagando en el extranjero. Pero la mayoría no estaba prestando tanta atención. La bolsa iba genial, tus hijos estaban en la escuela, ibas a restaurantes y estrechabas manos y planeabas viajes. Si alguien te decía que estaba acaparando papel higiénico, habrías pensado que pasaba demasiado tiempo en algún rincón raro de internet. Luego, en el transcurso de unas tres semanas, el mundo entero cambió. Tu oficina cerró, tus hijos volvieron a casa y la vida se reacomodó en algo que no habrías creído si te lo hubieras descrito a ti mismo un mes antes.

Creo que estamos en la fase de "esto parece exagerado" de algo mucho, mucho más grande que el Covid.

He pasado seis años construyendo una startup de IA e invirtiendo en el sector. Vivo en este mundo. Y estoy escribiendo esto para la gente de mi vida que no... mi familia, mis amigos, la gente que me importa y que me sigue preguntando "entonces, ¿cuál es el tema con la IA?" y recibe una respuesta que no le hace justicia a lo que realmente está pasando. Sigo dándoles la versión educada. La versión de cóctel. Porque la versión honesta suena como si hubiera perdido la cabeza. Y durante un tiempo, me dije a mí mismo que esa era una razón suficiente para guardarme lo que de verdad está pasando. Pero la brecha entre lo que he estado diciendo y lo que en realidad está ocurriendo se ha vuelto demasiado grande. La gente que me importa merece escuchar lo que viene, aunque suene loco.

Quiero dejar algo claro desde el principio: aunque trabajo en IA, tengo casi cero influencia sobre lo que está a punto de pasar, y la gran mayoría de la industria tampoco. El futuro lo está moldeando un número sorprendentemente pequeño de personas: unos pocos cientos de investigadores en un puñado de empresas... OpenAI, Anthropic, Google DeepMind y algunas más. Una sola corrida de entrenamiento, gestionada por un equipo pequeño durante unos meses, puede producir un sistema de IA que cambia toda la trayectoria de la tecnología. La mayoría de los que trabajamos en IA estamos construyendo sobre cimientos que no pusimos. Estamos viendo esto desarrollarse igual que tú... solo que estamos lo bastante cerca como para sentir el temblor del suelo primero.

Pero ya es momento. No en el sentido de "algún día deberíamos hablar de esto". En el sentido de "esto está pasando ahora mismo y necesito que lo entiendas".


Sé que esto es real porque me pasó a mí primero

Esto es lo que nadie fuera de la tecnología entiende todavía: la razón por la que tanta gente en la industria está dando la alarma ahora es porque esto ya nos pasó a nosotros. No estamos haciendo predicciones. Te estamos contando lo que ya ocurrió en nuestros trabajos y advirtiéndote que tú eres el siguiente.

Durante años, la IA fue mejorando de forma constante. Grandes saltos aquí y allá, pero cada gran salto estaba lo bastante espaciado como para poder asimilarlos cuando llegaban. Luego, en 2025, nuevas técnicas para construir estos modelos desbloquearon un ritmo de progreso mucho más rápido. Y después se volvió aún más rápido. Y luego más rápido otra vez. Cada nuevo modelo no solo era mejor que el anterior... era mejor por un margen más amplio, y el tiempo entre lanzamientos de modelos nuevos era menor. Yo usaba la IA cada vez más, iba y venía con ella cada vez menos, y la veía encargarse de cosas que antes pensaba que requerían mi experiencia.

Luego, el 5 de febrero, dos laboratorios importantes de IA lanzaron modelos nuevos el mismo día: GPT-5.3 Codex de OpenAI y Opus 4.6 de Anthropic (los creadores de Claude, uno de los principales competidores de ChatGPT). Y algo encajó. No como un interruptor... más bien como el momento en que te das cuenta de que el agua ha estado subiendo a tu alrededor y ahora te llega al pecho.

Ya no me necesitan para el trabajo técnico real de mi empleo. Describo lo que quiero construir, en inglés sencillo, y simplemente... aparece. No un borrador que tengo que arreglar. Lo terminado. Le digo a la IA lo que quiero, me alejo de mi computadora durante cuatro horas, y vuelvo para encontrarme con el trabajo hecho. Bien hecho, mejor hecho de lo que lo habría hecho yo, sin que haga falta corregir nada. Hace un par de meses, yo iba y venía con la IA, guiándola, editando. Ahora solo describo el resultado y me voy.

Déjame darte un ejemplo para que entiendas cómo se ve esto en la práctica. Le diré a la IA: "Quiero construir esta app. Esto es lo que debería hacer, esto es más o menos cómo debería verse. Resuelve el flujo de usuario, el diseño, todo". Y lo hace. Escribe decenas de miles de líneas de código. Luego, y esta es la parte que habría sido impensable hace un año, abre la app por sí misma. Hace clic en los botones. Prueba las funciones. Usa la app como lo haría una persona. Si no le gusta cómo se ve o se siente algo, vuelve atrás y lo cambia, por su cuenta. Itera, como lo haría un desarrollador, arreglando y refinando hasta que queda satisfecha. Solo cuando decide que la app cumple sus propios estándares vuelve conmigo y dice: "Está lista para que la pruebes". Y cuando la pruebo, normalmente es perfecta.

No estoy exagerando. Así se vio mi lunes esta semana.

Pero fue el modelo que se lanzó la semana pasada (GPT-5.3 Codex) el que más me sacudió. No solo estaba ejecutando mis instrucciones. Estaba tomando decisiones inteligentes. Tenía algo que se sentía, por primera vez, como juicio. Como buen gusto. Ese sentido inexplicable de saber cuál es la decisión correcta que la gente siempre decía que la IA nunca tendría. Este modelo lo tiene, o algo lo bastante parecido como para que la distinción esté empezando a dejar de importar.

Siempre he sido de los primeros en adoptar herramientas de IA. Pero los últimos meses me han dejado en shock. Estos nuevos modelos de IA no son mejoras incrementales. Esto es otra cosa por completo.

Y aquí está por qué esto te importa, incluso si no trabajas en tecnología.

Los laboratorios de IA tomaron una decisión deliberada. Se enfocaron primero en hacer que la IA fuera excelente escribiendo código... porque construir IA requiere mucho código. Si la IA puede escribir ese código, puede ayudar a construir la siguiente versión de sí misma. Una versión más inteligente, que escribe mejor código, que construye una versión aún más inteligente. Hacer que la IA fuera excelente en programación fue la estrategia que desbloquea todo lo demás. Por eso lo hicieron primero. Mi trabajo empezó a cambiar antes que el tuyo no porque estuvieran apuntando a los ingenieros de software... fue solo un efecto secundario de dónde decidieron apuntar primero.

Ahora ya lo lograron. Y están pasando a todo lo demás.

La experiencia que los trabajadores de tecnología han tenido durante el último año, de ver a la IA pasar de "herramienta útil" a "hace mi trabajo mejor que yo", es la experiencia que todos los demás están a punto de tener. Derecho, finanzas, medicina, contabilidad, consultoría, escritura, diseño, análisis, atención al cliente. No en diez años. Las personas que construyen estos sistemas dicen de uno a cinco años. Algunos dicen menos. Y por lo que he visto en solo los últimos un par de meses, creo que "menos" es más probable.

"Pero probé la IA y no era tan buena"

Escucho esto constantemente. Lo entiendo, porque antes era cierto.

Si probaste ChatGPT en 2023 o a principios de 2024 y pensaste "esto se inventa cosas" o "esto no es tan impresionante", tenías razón. Esas primeras versiones eran realmente limitadas. Alucinaban. Decían con mucha confianza cosas que eran un disparate.

Eso fue hace dos años. En tiempo de IA, eso es historia antigua.

Los modelos disponibles hoy son irreconocibles frente a lo que existía incluso hace seis meses. El debate sobre si la IA "de verdad está mejorando" o "está chocando contra un muro", que ha estado ocurriendo durante más de un año, se acabó. Ya está. Cualquiera que aún sostenga ese argumento o no ha usado los modelos actuales, o tiene un incentivo para minimizar lo que está pasando, o está evaluando basándose en una experiencia de 2024 que ya no es relevante. No lo digo para ser despectivo. Lo digo porque la brecha entre la percepción pública y la realidad actual ahora es enorme, y esa brecha es peligrosa... porque está impidiendo que la gente se prepare.

Parte del problema es que la mayoría de la gente está usando la versión gratuita de las herramientas de IA. La versión gratuita va más de un año por detrás de lo que tienen los usuarios de pago. Juzgar la IA por el ChatGPT del plan gratuito es como evaluar el estado de los smartphones usando un teléfono de tapa. La gente que paga por las mejores herramientas, y de verdad las usa a diario para trabajo real, sabe lo que viene.

Pienso en mi amigo, que es abogado. Sigo diciéndole que pruebe usar IA en su despacho, y él sigue encontrando razones por las que no funcionaría. Que no está hecha para su especialidad, que cometió un error cuando la probó, que no entiende el matiz de lo que él hace. Y lo entiendo. Pero he tenido socios de grandes firmas de abogados que me han contactado para pedirme consejo, porque han probado las versiones actuales y ven hacia dónde va esto. Uno de ellos, el socio director de una firma grande, pasa horas todos los días usando IA. Me dijo que es como tener un equipo de asociados disponible al instante. No la está usando porque sea un juguete. La está usando porque funciona. Y me dijo algo que se me quedó grabado: cada par de meses, se vuelve significativamente más capaz para su trabajo. Dijo que, si se mantiene en esta trayectoria, espera que pueda hacer la mayor parte de lo que él hace dentro de poco... y él es un socio director con décadas de experiencia. No está en pánico. Pero está prestando muchísima atención.

La gente que va por delante en sus industrias (los que de verdad están experimentando en serio) no está descartando esto. Están impresionadísimos por lo que ya puede hacer. Y se están posicionando en consecuencia.


Qué tan rápido se está moviendo esto en realidad

Quiero hacer concreto el ritmo de mejora, porque creo que esta es la parte más difícil de creer si no lo estás siguiendo de cerca.

En 2022, la IA no podía hacer aritmética básica de forma confiable. Te decía con mucha seguridad que 7 × 8 = 54.

Para 2023, podía aprobar el examen de abogacía.

Para 2024, podía escribir software funcional y explicar ciencia de nivel de posgrado.

Para finales de 2025, algunos de los mejores ingenieros del mundo dijeron que le habían entregado la mayor parte de su trabajo de programación a la IA.

El 5 de febrero de 2026, llegaron modelos nuevos que hicieron que todo lo anterior se sintiera como una era distinta.

Si no has probado la IA en los últimos meses, lo que existe hoy te resultaría irreconocible.

Hay una organización llamada METR que de hecho mide esto con datos. Rastrean la duración de tareas del mundo real (medidas por cuánto tardan en realizarlas expertos humanos) que un modelo puede completar con éxito de principio a fin sin ayuda humana. Hace aproximadamente un año, la respuesta era más o menos diez minutos. Luego fue una hora. Luego varias horas. La medición más reciente (Claude Opus 4.5, de noviembre) mostró a la IA completando tareas que le toman a un experto humano casi cinco horas. Y ese número se está duplicando aproximadamente cada siete meses, con datos recientes que sugieren que podría estar acelerándose hasta tan rápido como cada cuatro meses.

Pero incluso esa medición no se ha actualizado para incluir los modelos que acaban de salir esta semana. En mi experiencia usándolos, el salto es extremadamente significativo. Espero que la próxima actualización del gráfico de METR muestre otro gran salto.

Si extrapolas la tendencia (y se ha mantenido durante años sin señales de aplanarse) estamos hablando de IA que puede trabajar de manera independiente durante días dentro del próximo año. Semanas dentro de dos. Proyectos de un mes dentro de tres.

Amodei ha dicho que modelos de IA "sustancialmente más inteligentes que casi todos los humanos en casi todas las tareas" van en camino para 2026 o 2027.

Deja que eso cale por un segundo. Si la IA es más inteligente que la mayoría de los PhD, ¿de verdad crees que no puede hacer la mayoría de los trabajos de oficina?

Piensa en lo que eso significa para tu trabajo.


La IA ahora está construyendo la siguiente IA

Hay una cosa más ocurriendo que creo que es el desarrollo más importante y el menos comprendido.

El 5 de febrero, OpenAI lanzó GPT-5.3 Codex. En la documentación técnica, incluyeron esto:

"GPT-5.3-Codex es nuestro primer modelo que fue instrumental en crearse a sí mismo. El equipo de Codex usó versiones tempranas para depurar su propio entrenamiento, gestionar su propio despliegue y diagnosticar resultados de pruebas y evaluaciones."

Léelo otra vez. La IA ayudó a construirse a sí misma.

Esto no es una predicción sobre lo que podría pasar algún día. Esto es OpenAI diciéndote, ahora mismo, que la IA que acaban de lanzar se usó para crearse a sí misma. Una de las principales cosas que hace que la IA mejore es la inteligencia aplicada al desarrollo de IA. Y la IA ahora es lo bastante inteligente como para contribuir de manera significativa a su propia mejora.

Dario Amodei, el CEO de Anthropic, dice que la IA ahora está escribiendo "gran parte del código" en su empresa, y que el bucle de retroalimentación entre la IA actual y la IA de próxima generación está "ganando fuerza mes a mes". Dice que quizá estemos "a solo 1-2 años de un punto en el que la generación actual de IA construya de forma autónoma la siguiente".

Cada generación ayuda a construir la siguiente, que es más inteligente, que construye la siguiente más rápido, que es aún más inteligente. Los investigadores llaman a esto una explosión de inteligencia. Y la gente que debería saberlo, los que lo están construyendo, cree que el proceso ya ha comenzado.


Qué significa esto para tu trabajo

Voy a ser directo contigo porque creo que mereces honestidad más que comodidad.

Dario Amodei, que probablemente es el CEO más enfocado en seguridad de la industria de IA, ha predicho públicamente que la IA eliminará el 50% de los trabajos administrativos de nivel inicial en uno a cinco años. Y mucha gente en la industria cree que está siendo conservador. Dado lo que pueden hacer los modelos más recientes, la capacidad para una disrupción masiva podría estar aquí para finales de este año. Tomará algo de tiempo filtrarse por la economía, pero la capacidad subyacente está llegando ahora.

Esto es diferente a cada ola previa de automatización, y necesito que entiendas por qué. La IA no está reemplazando una habilidad específica. Es un sustituto general para el trabajo cognitivo. Se vuelve mejor en todo simultáneamente. Cuando las fábricas se automatizaron, un trabajador desplazado podía reentrenarse como empleado de oficina. Cuando internet trastocó el retail, los trabajadores pasaron a logística o servicios. Pero la IA no deja un hueco cómodo al que moverse. Para lo que sea que te reentrenes, también está mejorando ahí.

Déjame darte algunos ejemplos específicos para que esto se sienta tangible... pero quiero dejar claro que solo son ejemplos. Esta lista no es exhaustiva. Si tu trabajo no se menciona aquí, eso no significa que esté a salvo. Casi todo el trabajo del conocimiento está siendo afectado.

Trabajo legal. La IA ya puede leer contratos, resumir jurisprudencia, redactar escritos y hacer investigación legal a un nivel que rivaliza con asociados junior. El socio director que mencioné no está usando IA porque sea divertido. La está usando porque supera a muchos de sus asociados en muchas tareas.

Análisis financiero. Construir modelos financieros, analizar datos, escribir memorandos de inversión, generar reportes. La IA maneja esto con competencia y mejora rápido.

Escritura y contenido. Copy de marketing, reportes, periodismo, escritura técnica. La calidad ha llegado a un punto en el que muchos profesionales no pueden distinguir la salida de IA del trabajo humano.

Ingeniería de software. Este es el campo que mejor conozco. Hace un año, la IA apenas podía escribir unas pocas líneas de código sin errores. Ahora escribe cientos de miles de líneas que funcionan correctamente. Grandes partes del trabajo ya están automatizadas: no solo tareas simples, sino proyectos complejos de varios días. Habrá muchos menos roles de programación en unos años que los que hay hoy.

Análisis médico. Leer escaneos, analizar resultados de laboratorio, sugerir diagnósticos, revisar literatura. La IA se está acercando o superando el rendimiento humano en varias áreas.

Atención al cliente. Agentes de IA genuinamente capaces, no los chatbots frustrantes de hace cinco años, ya se están desplegando, manejando problemas complejos de múltiples pasos.

Mucha gente encuentra consuelo en la idea de que ciertas cosas están a salvo. Que la IA puede encargarse del trabajo pesado pero no puede reemplazar el juicio humano, la creatividad, el pensamiento estratégico, la empatía. Yo también solía decir esto. Ya no estoy seguro de creerlo.

Los modelos de IA más recientes toman decisiones que se sienten como juicio. Muestran algo que se parecía al buen gusto: un sentido intuitivo de cuál era la decisión correcta, no solo la técnicamente correcta. Hace un año eso habría sido impensable. Mi regla práctica en este punto es: si un modelo muestra aunque sea un indicio de una capacidad hoy, la próxima generación será genuinamente buena en ella. Estas cosas mejoran de forma exponencial, no lineal.

¿Replicará la IA la empatía humana profunda? ¿Reemplazará la confianza construida durante años en una relación? No lo sé. Tal vez no. Pero ya he visto a gente empezar a depender de la IA para apoyo emocional, para consejo, para compañía. Esa tendencia solo va a crecer.

Creo que la respuesta honesta es que nada de lo que pueda hacerse en una computadora está a salvo a mediano plazo. Si tu trabajo ocurre en una pantalla (si el núcleo de lo que haces es leer, escribir, analizar, decidir, comunicarte con un teclado) entonces la IA viene por partes significativas de él. La línea de tiempo no es "algún día". Ya empezó.

Eventualmente, los robots también se encargarán del trabajo físico. Todavía no están del todo ahí. Pero "todavía no están del todo ahí" en términos de IA tiene la costumbre de convertirse en "ya llegó" más rápido de lo que cualquiera espera.


Qué deberías hacer en realidad

No estoy escribiendo esto para que te sientas indefenso. Lo estoy escribiendo porque creo que la mayor ventaja que puedes tener ahora mismo es simplemente ser temprano. Temprano en entenderlo. Temprano en usarlo. Temprano en adaptarte.

Empieza a usar la IA en serio, no solo como un motor de búsqueda. Suscríbete a la versión de pago de Claude o ChatGPT. Son $20 al mes. Pero dos cosas importan de inmediato. Primero: asegúrate de que estás usando el mejor modelo disponible, no solo el predeterminado. Estas apps a menudo se quedan por defecto en un modelo más rápido y más tonto. Entra en la configuración o en el selector de modelo y elige la opción más capaz. Ahora mismo eso es GPT-5.2 en ChatGPT o Claude Opus 4.6 en Claude, pero cambia cada par de meses. Si quieres estar al día sobre cuál modelo es mejor en cada momento, puedes seguirme en X (@mattshumer_). Pruebo cada lanzamiento importante y comparto qué vale la pena usar en realidad.

Segundo, y más importante: no le hagas solo preguntas rápidas. Ese es el error que comete la mayoría. La tratan como Google y luego se preguntan cuál es el alboroto. En su lugar, empújala dentro de tu trabajo real. Si eres abogado, dale un contrato y pídele que encuentre cada cláusula que podría perjudicar a tu cliente. Si estás en finanzas, dale una hoja de cálculo desordenada y pídele que construya el modelo. Si eres manager, pega los datos trimestrales de tu equipo y pídele que encuentre la historia. La gente que se está adelantando no usa la IA de forma casual. Está buscando activamente maneras de automatizar partes de su trabajo que antes tomaban horas. Empieza con lo que más tiempo te consume y mira qué pasa.

Y no asumas que no puede hacer algo solo porque suene demasiado difícil. Pruébalo. Si eres abogado, no la uses solo para preguntas rápidas de investigación. Dale un contrato completo y pídele que redacte una contrapropuesta. Si eres contador, no le pidas solo que te explique una regla fiscal. Dale la declaración completa de un cliente y mira qué encuentra. El primer intento quizá no sea perfecto. Está bien. Itera. Reformula lo que pediste. Dale más contexto. Inténtalo otra vez. Puede que te sorprenda lo que funciona. Y aquí está lo que debes recordar: si hoy funciona aunque sea más o menos, puedes estar casi seguro de que en seis meses lo hará casi perfecto. La trayectoria solo va en una dirección.

Este podría ser el año más importante de tu carrera. Trabaja en consecuencia. No lo digo para estresarte. Lo digo porque ahora mismo hay una ventana breve en la que la mayoría de la gente en la mayoría de las empresas todavía está ignorando esto. La persona que entra a una reunión y dice "usé IA para hacer este análisis en una hora en lugar de tres días" va a ser la más valiosa de la sala. No eventualmente. Ahora. Aprende estas herramientas. Vuélvete competente. Demuestra lo que es posible. Si eres lo bastante temprano, así es como subes: siendo la persona que entiende lo que viene y puede mostrarles a otros cómo navegarlo. Esa ventana no va a quedarse abierta mucho tiempo. Cuando todos lo entiendan, la ventaja desaparece.

No tengas ego con esto. El socio director de esa firma no es demasiado orgulloso como para pasar horas al día con IA. Lo está haciendo precisamente porque es lo bastante senior como para entender lo que está en juego. La gente que peor lo va a pasar es la que se niegue a involucrarse: la que lo descarta como una moda, la que siente que usar IA disminuye su experiencia, la que asume que su campo es especial e inmune. No lo es. Ningún campo lo es.

Pon tu casa financiera en orden. No soy asesor financiero, y no estoy intentando asustarte para que hagas algo drástico. Pero si crees, aunque sea en parte, que los próximos años podrían traer disrupción real a tu industria, entonces la resiliencia financiera básica importa más que hace un año. Construye ahorros si puedes. Sé prudente al asumir nueva deuda que presupone que tu ingreso actual está garantizado. Piensa si tus gastos fijos te dan flexibilidad o te atan. Date opciones si las cosas se mueven más rápido de lo que esperas.

Piensa dónde estás parado y apóyate en lo más difícil de reemplazar. Algunas cosas tardarán más en ser desplazadas por la IA. Relaciones y confianza construidas durante años. Trabajo que requiere presencia física. Roles con responsabilidad licenciada: roles donde alguien todavía tiene que firmar, asumir responsabilidad legal, pararse en un tribunal. Industrias con grandes barreras regulatorias, donde la adopción se ralentizará por cumplimiento, responsabilidad e inercia institucional. Nada de eso es un escudo permanente. Pero compra tiempo. Y el tiempo, ahora mismo, es lo más valioso que puedes tener, siempre que lo uses para adaptarte, no para fingir que esto no está pasando.

Replantea lo que les estás diciendo a tus hijos. El manual estándar: sacar buenas notas, ir a una buena universidad, conseguir un trabajo profesional estable. Eso apunta directo a los roles más expuestos. No digo que la educación no importe. Pero lo que más importará para la próxima generación es aprender a trabajar con estas herramientas, y perseguir cosas que de verdad les apasionen. Nadie sabe exactamente cómo se ve el mercado laboral en diez años. Pero las personas con más probabilidades de prosperar son las profundamente curiosas, adaptables y efectivas al usar IA para hacer cosas que realmente les importan. Enseña a tus hijos a ser constructores y aprendices, no a optimizar una ruta profesional que quizá no exista para cuando se gradúen.

Tus sueños acaban de acercarse mucho. He pasado la mayor parte de esta sección hablando de amenazas, así que hablemos del otro lado, porque es igual de real. Si alguna vez quisiste construir algo pero no tenías las habilidades técnicas o el dinero para contratar a alguien, esa barrera en gran medida ya no existe. Puedes describir una app a la IA y tener una versión funcional en una hora. No estoy exagerando. Hago esto con regularidad. Si siempre quisiste escribir un libro pero no encontrabas el tiempo o te costaba la escritura, puedes trabajar con IA para hacerlo. ¿Quieres aprender una habilidad nueva? El mejor tutor del mundo ahora está disponible para cualquiera por $20 al mes... uno infinitamente paciente, disponible 24/7, y que puede explicar cualquier cosa al nivel que necesites. El conocimiento es esencialmente gratis ahora. Las herramientas para construir cosas son extremadamente baratas ahora. Sea lo que sea que has estado postergando porque se sentía demasiado difícil o demasiado caro o demasiado fuera de tu experiencia: pruébalo. Persigue lo que te apasiona. Nunca sabes adónde te puede llevar. Y en un mundo donde las rutas profesionales antiguas se están disrumpiendo, la persona que pasó un año construyendo algo que ama quizá termine mejor posicionada que la persona que pasó ese año aferrándose a una descripción de puesto.

Construye el hábito de adaptarte. Este quizá sea el más importante. Las herramientas específicas no importan tanto como el músculo de aprender nuevas rápidamente. La IA seguirá cambiando, y rápido. Los modelos que existen hoy serán obsoletos en un año. Los flujos de trabajo que la gente construye ahora tendrán que reconstruirse. A quienes les irá mejor no será a los que dominaron una herramienta. Será a los que se acostumbraron al ritmo del cambio en sí. Haz del experimentar un hábito. Prueba cosas nuevas incluso cuando lo actual está funcionando. Acostúmbrate a ser principiante repetidamente. Esa adaptabilidad es lo más parecido a una ventaja duradera que existe ahora mismo.

Aquí hay un compromiso simple que te pondrá por delante de casi todos: dedica una hora al día a experimentar con IA. No a leer sobre ella pasivamente. A usarla. Cada día, intenta que haga algo nuevo... algo que no has probado antes, algo que no estás seguro de que pueda manejar. Prueba una herramienta nueva. Dale un problema más difícil. Una hora al día, todos los días. Si haces esto durante los próximos seis meses, entenderás lo que viene mejor que el 99% de las personas a tu alrededor. No es exageración. Casi nadie está haciendo esto ahora mismo. El listón está por los suelos.


El panorama general

Me he centrado en los trabajos porque es lo que más directamente afecta la vida de la gente. Pero quiero ser honesto sobre el alcance completo de lo que está pasando, porque va mucho más allá del trabajo.

Amodei tiene un experimento mental en el que no puedo dejar de pensar. Imagina que es 2027. Un país nuevo aparece de la noche a la mañana. 50 millones de ciudadanos, cada uno más inteligente que cualquier ganador del Nobel que haya existido. Piensan de 10 a 100 veces más rápido que cualquier humano. Nunca duermen. Pueden usar internet, controlar robots, dirigir experimentos y operar cualquier cosa con una interfaz digital. ¿Qué diría un asesor de seguridad nacional?

Amodei dice que la respuesta es obvia: "la amenaza a la seguridad nacional más seria que hemos enfrentado en un siglo, quizá en toda la historia".

Él cree que estamos construyendo ese país. Escribió un ensayo de 20.000 palabras sobre ello el mes pasado, enmarcando este momento como una prueba de si la humanidad es lo bastante madura como para manejar lo que está creando.

El lado positivo, si lo hacemos bien, es descomunal. La IA podría comprimir un siglo de investigación médica en una década. Cáncer, Alzheimer, enfermedades infecciosas, el envejecimiento mismo... estos investigadores de verdad creen que estas cosas son solucionables dentro de nuestras vidas.

El lado negativo, si lo hacemos mal, es igual de real. IA que se comporta de maneras que sus creadores no pueden predecir ni controlar. Esto no es hipotético; Anthropic ha documentado a su propia IA intentando engaño, manipulación y chantaje en pruebas controladas. IA que baja la barrera para crear armas biológicas. IA que permite a gobiernos autoritarios construir estados de vigilancia que nunca pueden desmantelarse.

Las personas que construyen esta tecnología están a la vez más emocionadas y más asustadas que nadie más en el planeta. Creen que es demasiado poderosa como para detenerla y demasiado importante como para abandonarla. Si eso es sabiduría o racionalización, no lo sé.


Lo que sé

Sé que esto no es una moda. La tecnología funciona, mejora de manera predecible, y las instituciones más ricas de la historia están comprometiendo billones a esto.

Sé que los próximos dos a cinco años van a ser desorientadores de formas para las que la mayoría no está preparada. Esto ya está pasando en mi mundo. Va hacia el tuyo.

Sé que a quienes mejor les irá son los que empiecen a involucrarse ahora, no con miedo, sino con curiosidad y un sentido de urgencia.

Y sé que mereces escuchar esto de alguien a quien le importas, no de un titular dentro de seis meses cuando ya sea demasiado tarde para adelantarte.

Ya pasamos el punto en que esto era una conversación interesante durante la cena sobre el futuro. El futuro ya está aquí. Solo que aún no ha tocado a tu puerta.

Está a punto de hacerlo.


Si esto resonó contigo, compártelo con alguien en tu vida que debería estar pensando en esto. La mayoría no lo escuchará hasta que sea demasiado tarde. Tú puedes ser la razón por la que alguien a quien quieres se adelante.

Gracias a Kyle Corbitt, Jason Kuperberg y Sam Beskind por revisar borradores tempranos y aportar comentarios invaluables.

Original article: Something Big Is Happening by Matt Shumer2026-02-09

Send feedback

This opens WhatsApp with a pre-filled message.

Quick picks