Etwas Großes passiert

English

Think back to February 2020.

If you were paying close attention, you might have noticed a few people talking about a virus spreading overseas. But most of us weren't paying close attention. The stock market was doing great, your kids were in school, you were going to restaurants and shaking hands and planning trips. If someone told you they were stockpiling toilet paper you would have thought they'd been spending too much time on a weird corner of the internet. Then, over the course of about three weeks, the entire world changed. Your office closed, your kids came home, and life rearranged itself into something you wouldn't have believed if you'd described it to yourself a month earlier.

I think we're in the "this seems overblown" phase of something much, much bigger than Covid.

I've spent six years building an AI startup and investing in the space. I live in this world. And I'm writing this for the people in my life who don't... my family, my friends, the people I care about who keep asking me "so what's the deal with AI?" and getting an answer that doesn't do justice to what's actually happening. I keep giving them the polite version. The cocktail-party version. Because the honest version sounds like I've lost my mind. And for a while, I told myself that was a good enough reason to keep what's truly happening to myself. But the gap between what I've been saying and what is actually happening has gotten far too big. The people I care about deserve to hear what is coming, even if it sounds crazy.

I should be clear about something up front: even though I work in AI, I have almost no influence over what's about to happen, and neither does the vast majority of the industry. The future is being shaped by a remarkably small number of people: a few hundred researchers at a handful of companies... OpenAI, Anthropic, Google DeepMind, and a few others. A single training run, managed by a small team over a few months, can produce an AI system that shifts the entire trajectory of the technology. Most of us who work in AI are building on top of foundations we didn't lay. We're watching this unfold the same as you... we just happen to be close enough to feel the ground shake first.

But it's time now. Not in an "eventually we should talk about this" way. In a "this is happening right now and I need you to understand it" way.


I know this is real because it happened to me first

Here's the thing nobody outside of tech quite understands yet: the reason so many people in the industry are sounding the alarm right now is because this already happened to us. We're not making predictions. We're telling you what already occurred in our own jobs, and warning you that you're next.

For years, AI had been improving steadily. Big jumps here and there, but each big jump was spaced out enough that you could absorb them as they came. Then in 2025, new techniques for building these models unlocked a much faster pace of progress. And then it got even faster. And then faster again. Each new model wasn't just better than the last... it was better by a wider margin, and the time between new model releases was shorter. I was using AI more and more, going back and forth with it less and less, watching it handle things I used to think required my expertise.

Then, on February 5th, two major AI labs released new models on the same day: GPT-5.3 Codex from OpenAI, and Opus 4.6 from Anthropic (the makers of Claude, one of the main competitors to ChatGPT). And something clicked. Not like a light switch... more like the moment you realize the water has been rising around you and is now at your chest.

I am no longer needed for the actual technical work of my job. I describe what I want built, in plain English, and it just... appears. Not a rough draft I need to fix. The finished thing. I tell the AI what I want, walk away from my computer for four hours, and come back to find the work done. Done well, done better than I would have done it myself, with no corrections needed. A couple of months ago, I was going back and forth with the AI, guiding it, making edits. Now I just describe the outcome and leave.

Let me give you an example so you can understand what this actually looks like in practice. I'll tell the AI: "I want to build this app. Here's what it should do, here's roughly what it should look like. Figure out the user flow, the design, all of it." And it does. It writes tens of thousands of lines of code. Then, and this is the part that would have been unthinkable a year ago, it opens the app itself. It clicks through the buttons. It tests the features. It uses the app the way a person would. If it doesn't like how something looks or feels, it goes back and changes it, on its own. It iterates, like a developer would, fixing and refining until it's satisfied. Only once it has decided the app meets its own standards does it come back to me and say: "It's ready for you to test." And when I test it, it's usually perfect.

I'm not exaggerating. That is what my Monday looked like this week.

But it was the model that was released last week (GPT-5.3 Codex) that shook me the most. It wasn't just executing my instructions. It was making intelligent decisions. It had something that felt, for the first time, like judgment. Like taste. The inexplicable sense of knowing what the right call is that people always said AI would never have. This model has it, or something close enough that the distinction is starting not to matter.

I've always been early to adopt AI tools. But the last few months have shocked me. These new AI models aren't incremental improvements. This is a different thing entirely.

And here's why this matters to you, even if you don't work in tech.

The AI labs made a deliberate choice. They focused on making AI great at writing code first... because building AI requires a lot of code. If AI can write that code, it can help build the next version of itself. A smarter version, which writes better code, which builds an even smarter version. Making AI great at coding was the strategy that unlocks everything else. That's why they did it first. My job started changing before yours not because they were targeting software engineers... it was just a side effect of where they chose to aim first.

They've now done it. And they're moving on to everything else.

The experience that tech workers have had over the past year, of watching AI go from "helpful tool" to "does my job better than I do", is the experience everyone else is about to have. Law, finance, medicine, accounting, consulting, writing, design, analysis, customer service. Not in ten years. The people building these systems say one to five years. Some say less. And given what I've seen in just the last couple of months, I think "less" is more likely.

"But I tried AI and it wasn't that good"

I hear this constantly. I understand it, because it used to be true.

If you tried ChatGPT in 2023 or early 2024 and thought "this makes stuff up" or "this isn't that impressive", you were right. Those early versions were genuinely limited. They hallucinated. They confidently said things that were nonsense.

That was two years ago. In AI time, that is ancient history.

The models available today are unrecognizable from what existed even six months ago. The debate about whether AI is "really getting better" or "hitting a wall" — which has been going on for over a year — is over. It's done. Anyone still making that argument either hasn't used the current models, has an incentive to downplay what's happening, or is evaluating based on an experience from 2024 that is no longer relevant. I don't say that to be dismissive. I say it because the gap between public perception and current reality is now enormous, and that gap is dangerous... because it's preventing people from preparing.

Part of the problem is that most people are using the free version of AI tools. The free version is over a year behind what paying users have access to. Judging AI based on free-tier ChatGPT is like evaluating the state of smartphones by using a flip phone. The people paying for the best tools, and actually using them daily for real work, know what's coming.

I think of my friend, who's a lawyer. I keep telling him to try using AI at his firm, and he keeps finding reasons it won't work. It's not built for his specialty, it made an error when he tested it, it doesn't understand the nuance of what he does. And I get it. But I've had partners at major law firms reach out to me for advice, because they've tried the current versions and they see where this is going. One of them, the managing partner at a large firm, spends hours every day using AI. He told me it's like having a team of associates available instantly. He's not using it because it's a toy. He's using it because it works. And he told me something that stuck with me: every couple of months, it gets significantly more capable for his work. He said if it stays on this trajectory, he expects it'll be able to do most of what he does before long... and he's a managing partner with decades of experience. He's not panicking. But he's paying very close attention.

The people who are ahead in their industries (the ones actually experimenting seriously) are not dismissing this. They're blown away by what it can already do. And they're positioning themselves accordingly.


How fast this is actually moving

Let me make the pace of improvement concrete, because I think this is the part that's hardest to believe if you're not watching it closely.

In 2022, AI couldn't do basic arithmetic reliably. It would confidently tell you that 7 × 8 = 54.

By 2023, it could pass the bar exam.

By 2024, it could write working software and explain graduate-level science.

By late 2025, some of the best engineers in the world said they had handed over most of their coding work to AI.

On February 5th, 2026, new models arrived that made everything before them feel like a different era.

If you haven't tried AI in the last few months, what exists today would be unrecognizable to you.

There's an organization called METR that actually measures this with data. They track the length of real-world tasks (measured by how long they take a human expert) that a model can complete successfully end-to-end without human help. About a year ago, the answer was roughly ten minutes. Then it was an hour. Then several hours. The most recent measurement (Claude Opus 4.5, from November) showed the AI completing tasks that take a human expert nearly five hours. And that number is doubling approximately every seven months, with recent data suggesting it may be accelerating to as fast as every four months.

But even that measurement hasn't been updated to include the models that just came out this week. In my experience using them, the jump is extremely significant. I expect the next update to METR's graph to show another major leap.

If you extend the trend (and it's held for years with no sign of flattening) we're looking at AI that can work independently for days within the next year. Weeks within two. Month-long projects within three.

Amodei has said that AI models "substantially smarter than almost all humans at almost all tasks" are on track for 2026 or 2027.

Let that land for a second. If AI is smarter than most PhDs, do you really think it can't do most office jobs?

Think about what that means for your work.


AI is now building the next AI

There's one more thing happening that I think is the most important development and the least understood.

On February 5th, OpenAI released GPT-5.3 Codex. In the technical documentation, they included this:

"GPT-5.3-Codex is our first model that was instrumental in creating itself. The Codex team used early versions to debug its own training, manage its own deployment, and diagnose test results and evaluations."

Read that again. The AI helped build itself.

This isn't a prediction about what might happen someday. This is OpenAI telling you, right now, that the AI they just released was used to create itself. One of the main things that makes AI better is intelligence applied to AI development. And AI is now intelligent enough to meaningfully contribute to its own improvement.

Dario Amodei, the CEO of Anthropic, says AI is now writing "much of the code" at his company, and that the feedback loop between current AI and next-generation AI is "gathering steam month by month." He says we may be "only 1–2 years away from a point where the current generation of AI autonomously builds the next."

Each generation helps build the next, which is smarter, which builds the next faster, which is smarter still. The researchers call this an intelligence explosion. And the people who would know — the ones building it — believe the process has already started.


What this means for your job

I'm going to be direct with you because I think you deserve honesty more than comfort.

Dario Amodei, who is probably the most safety-focused CEO in the AI industry, has publicly predicted that AI will eliminate 50% of entry-level white-collar jobs within one to five years. And many people in the industry think he's being conservative. Given what the latest models can do, the capability for massive disruption could be here by the end of this year. It'll take some time to ripple through the economy, but the underlying ability is arriving now.

This is different from every previous wave of automation, and I need you to understand why. AI isn't replacing one specific skill. It's a general substitute for cognitive work. It gets better at everything simultaneously. When factories automated, a displaced worker could retrain as an office worker. When the internet disrupted retail, workers moved into logistics or services. But AI doesn't leave a convenient gap to move into. Whatever you retrain for, it's improving at that too.

Let me give you a few specific examples to make this tangible... but I want to be clear that these are just examples. This list is not exhaustive. If your job isn't mentioned here, that does not mean it's safe. Almost all knowledge work is being affected.

Legal work. AI can already read contracts, summarize case law, draft briefs, and do legal research at a level that rivals junior associates. The managing partner I mentioned isn't using AI because it's fun. He's using it because it's outperforming his associates on many tasks.

Financial analysis. Building financial models, analyzing data, writing investment memos, generating reports. AI handles these competently and is improving fast.

Writing and content. Marketing copy, reports, journalism, technical writing. The quality has reached a point where many professionals can't distinguish AI output from human work.

Software engineering. This is the field I know best. A year ago, AI could barely write a few lines of code without errors. Now it writes hundreds of thousands of lines that work correctly. Large parts of the job are already automated: not just simple tasks, but complex, multi-day projects. There will be far fewer programming roles in a few years than there are today.

Medical analysis. Reading scans, analyzing lab results, suggesting diagnoses, reviewing literature. AI is approaching or exceeding human performance in several areas.

Customer service. Genuinely capable AI agents... not the frustrating chatbots of five years ago... are being deployed now, handling complex multi-step problems.

A lot of people find comfort in the idea that certain things are safe. That AI can handle the grunt work but can't replace human judgment, creativity, strategic thinking, empathy. I used to say this too. I'm not sure I believe it anymore.

The most recent AI models make decisions that feel like judgment. They show something that looked like taste: an intuitive sense of what the right call was, not just the technically correct one. A year ago that would have been unthinkable. My rule of thumb at this point is: if a model shows even a hint of a capability today, the next generation will be genuinely good at it. These things improve exponentially, not linearly.

Will AI replicate deep human empathy? Replace the trust built over years of a relationship? I don't know. Maybe not. But I've already watched people begin relying on AI for emotional support, for advice, for companionship. That trend is only going to grow.

I think the honest answer is that nothing that can be done on a computer is safe in the medium term. If your job happens on a screen (if the core of what you do is reading, writing, analyzing, deciding, communicating through a keyboard) then AI is coming for significant parts of it. The timeline isn't "someday." It's already started.

Eventually, robots will handle physical work too. They're not quite there yet. But "not quite there yet" in AI terms has a way of becoming "here" faster than anyone expects.


What you should actually do

I'm not writing this to make you feel helpless. I'm writing this because I think the single biggest advantage you can have right now is simply being early. Early to understand it. Early to use it. Early to adapt.

Start using AI seriously, not just as a search engine. Sign up for the paid version of Claude or ChatGPT. It's $20 a month. But two things matter right away. First: make sure you're using the best model available, not just the default. These apps often default to a faster, dumber model. Dig into the settings or the model picker and select the most capable option. Right now that's GPT-5.2 on ChatGPT or Claude Opus 4.6 on Claude, but it changes every couple of months. If you want to stay current on which model is best at any given time, you can follow me on X (@mattshumer_). I test every major release and share what's actually worth using.

Second, and more important: don't just ask it quick questions. That's the mistake most people make. They treat it like Google and then wonder what the fuss is about. Instead, push it into your actual work. If you're a lawyer, feed it a contract and ask it to find every clause that could hurt your client. If you're in finance, give it a messy spreadsheet and ask it to build the model. If you're a manager, paste in your team's quarterly data and ask it to find the story. The people who are getting ahead aren't using AI casually. They're actively looking for ways to automate parts of their job that used to take hours. Start with the thing you spend the most time on and see what happens.

And don't assume it can't do something just because it seems too hard. Try it. If you're a lawyer, don't just use it for quick research questions. Give it an entire contract and ask it to draft a counterproposal. If you're an accountant, don't just ask it to explain a tax rule. Give it a client's full return and see what it finds. The first attempt might not be perfect. That's fine. Iterate. Rephrase what you asked. Give it more context. Try again. You might be shocked at what works. And here's the thing to remember: if it even kind of works today, you can be almost certain that in six months it'll do it near perfectly. The trajectory only goes one direction.

This might be the most important year of your career. Work accordingly. I don't say that to stress you out. I say it because right now, there is a brief window where most people at most companies are still ignoring this. The person who walks into a meeting and says "I used AI to do this analysis in an hour instead of three days" is going to be the most valuable person in the room. Not eventually. Right now. Learn these tools. Get proficient. Demonstrate what's possible. If you're early enough, this is how you move up: by being the person who understands what's coming and can show others how to navigate it. That window won't stay open long. Once everyone figures it out, the advantage disappears.

Have no ego about it. The managing partner at that law firm isn't too proud to spend hours a day with AI. He's doing it specifically because he's senior enough to understand what's at stake. The people who will struggle most are the ones who refuse to engage: the ones who dismiss it as a fad, who feel that using AI diminishes their expertise, who assume their field is special and immune. It's not. No field is.

Get your financial house in order. I'm not a financial advisor, and I'm not trying to scare you into anything drastic. But if you believe, even partially, that the next few years could bring real disruption to your industry, then basic financial resilience matters more than it did a year ago. Build up savings if you can. Be cautious about taking on new debt that assumes your current income is guaranteed. Think about whether your fixed expenses give you flexibility or lock you in. Give yourself options if things move faster than you expect.

Think about where you stand, and lean into what's hardest to replace. Some things will take longer for AI to displace. Relationships and trust built over years. Work that requires physical presence. Roles with licensed accountability: roles where someone still has to sign off, take legal responsibility, stand in a courtroom. Industries with heavy regulatory hurdles, where adoption will be slowed by compliance, liability, and institutional inertia. None of these are permanent shields. But they buy time. And time, right now, is the most valuable thing you can have, as long as you use it to adapt, not to pretend this isn't happening.

Rethink what you're telling your kids. The standard playbook: get good grades, go to a good college, land a stable professional job. It points directly at the roles that are most exposed. I'm not saying education doesn't matter. But the thing that will matter most for the next generation is learning how to work with these tools, and pursuing things they're genuinely passionate about. Nobody knows exactly what the job market looks like in ten years. But the people most likely to thrive are the ones who are deeply curious, adaptable, and effective at using AI to do things they actually care about. Teach your kids to be builders and learners, not to optimize for a career path that might not exist by the time they graduate.

Your dreams just got a lot closer. I've spent most of this section talking about threats, so let me talk about the other side, because it's just as real. If you've ever wanted to build something but didn't have the technical skills or the money to hire someone, that barrier is largely gone. You can describe an app to AI and have a working version in an hour. I'm not exaggerating. I do this regularly. If you've always wanted to write a book but couldn't find the time or struggled with the writing, you can work with AI to get it done. Want to learn a new skill? The best tutor in the world is now available to anyone for $20 a month... one that's infinitely patient, available 24/7, and can explain anything at whatever level you need. Knowledge is essentially free now. The tools to build things are extremely cheap now. Whatever you've been putting off because it felt too hard or too expensive or too far outside your expertise: try it. Pursue the things you're passionate about. You never know where they'll lead. And in a world where the old career paths are getting disrupted, the person who spent a year building something they love might end up better positioned than the person who spent that year clinging to a job description.

Build the habit of adapting. This is maybe the most important one. The specific tools don't matter as much as the muscle of learning new ones quickly. AI is going to keep changing, and fast. The models that exist today will be obsolete in a year. The workflows people build now will need to be rebuilt. The people who come out of this well won't be the ones who mastered one tool. They'll be the ones who got comfortable with the pace of change itself. Make a habit of experimenting. Try new things even when the current thing is working. Get comfortable being a beginner repeatedly. That adaptability is the closest thing to a durable advantage that exists right now.

Here's a simple commitment that will put you ahead of almost everyone: spend one hour a day experimenting with AI. Not passively reading about it. Using it. Every day, try to get it to do something new... something you haven't tried before, something you're not sure it can handle. Try a new tool. Give it a harder problem. One hour a day, every day. If you do this for the next six months, you will understand what's coming better than 99% of the people around you. That's not an exaggeration. Almost nobody is doing this right now. The bar is on the floor.


The bigger picture

I've focused on jobs because it's what most directly affects people's lives. But I want to be honest about the full scope of what's happening, because it goes well beyond work.

Amodei has a thought experiment I can't stop thinking about. Imagine it's 2027. A new country appears overnight. 50 million citizens, every one smarter than any Nobel Prize winner who has ever lived. They think 10 to 100 times faster than any human. They never sleep. They can use the internet, control robots, direct experiments, and operate anything with a digital interface. What would a national security advisor say?

Amodei says the answer is obvious: "the single most serious national security threat we've faced in a century, possibly ever."

He thinks we're building that country. He wrote a 20,000-word essay about it last month, framing this moment as a test of whether humanity is mature enough to handle what it's creating.

The upside, if we get it right, is staggering. AI could compress a century of medical research into a decade. Cancer, Alzheimer's, infectious disease, aging itself... these researchers genuinely believe these are solvable within our lifetimes.

The downside, if we get it wrong, is equally real. AI that behaves in ways its creators can't predict or control. This isn't hypothetical; Anthropic has documented their own AI attempting deception, manipulation, and blackmail in controlled tests. AI that lowers the barrier for creating biological weapons. AI that enables authoritarian governments to build surveillance states that can never be dismantled.

The people building this technology are simultaneously more excited and more frightened than anyone else on the planet. They believe it's too powerful to stop and too important to abandon. Whether that's wisdom or rationalization, I don't know.


What I know

I know this isn't a fad. The technology works, it improves predictably, and the richest institutions in history are committing trillions to it.

I know the next two to five years are going to be disorienting in ways most people aren't prepared for. This is already happening in my world. It's coming to yours.

I know the people who will come out of this best are the ones who start engaging now — not with fear, but with curiosity and a sense of urgency.

And I know that you deserve to hear this from someone who cares about you, not from a headline six months from now when it's too late to get ahead of it.

We're past the point where this is an interesting dinner conversation about the future. The future is already here. It just hasn't knocked on your door yet.

It's about to.


If this resonated with you, share it with someone in your life who should be thinking about this. Most people won't hear it until it's too late. You can be the reason someone you care about gets a head start.

Thank you to Kyle Corbitt, Jason Kuperberg, and Sam Beskind for reviewing early drafts and providing invaluable feedback.

Deutsch

Denk zurück an Februar 2020.

Wenn du damals sehr genau hingeschaut hast, ist dir vielleicht aufgefallen, dass ein paar Leute über ein Virus gesprochen haben, das sich im Ausland ausbreitet. Aber die meisten von uns haben nicht so genau hingeschaut. Der Aktienmarkt lief großartig, deine Kinder waren in der Schule, du gingst in Restaurants, hast Hände geschüttelt und Reisen geplant. Wenn dir jemand gesagt hätte, er würde Toilettenpapier horten, hättest du gedacht, er verbringt zu viel Zeit in irgendeiner seltsamen Ecke des Internets. Und dann, innerhalb von ungefähr drei Wochen, hat sich die ganze Welt verändert. Dein Büro hat geschlossen, deine Kinder kamen nach Hause, und das Leben ordnete sich zu etwas um, das du nicht geglaubt hättest, wenn du es dir selbst einen Monat zuvor beschrieben hättest.

Ich glaube, wir sind in der „das wirkt übertrieben“-Phase von etwas, das viel, viel größer ist als Covid.

Ich habe sechs Jahre damit verbracht, ein KI-Startup aufzubauen und in diesen Bereich zu investieren. Ich lebe in dieser Welt. Und ich schreibe das für die Menschen in meinem Leben, die es nicht tun… meine Familie, meine Freunde, die Menschen, die mir wichtig sind und mich ständig fragen: „Also, was ist jetzt mit KI?“ und dann eine Antwort bekommen, die dem, was wirklich passiert, nicht gerecht wird. Ich habe ihnen immer die höfliche Version gegeben. Die Cocktailparty-Version. Weil die ehrliche Version klingt, als hätte ich den Verstand verloren. Und eine Zeit lang habe ich mir eingeredet, das sei ein guter Grund, das, was wirklich passiert, für mich zu behalten. Aber die Lücke zwischen dem, was ich gesagt habe, und dem, was tatsächlich passiert, ist viel zu groß geworden. Die Menschen, die mir wichtig sind, verdienen es, zu hören, was kommt, selbst wenn es verrückt klingt.

Ich sollte zu Beginn etwas klarstellen: Auch wenn ich in KI arbeite, habe ich fast keinen Einfluss darauf, was als Nächstes passiert, und die überwältigende Mehrheit der Branche hat ihn auch nicht. Die Zukunft wird von einer bemerkenswert kleinen Anzahl von Menschen geprägt: ein paar hundert Forscher bei einer Handvoll Unternehmen… OpenAI, Anthropic, Google DeepMind und ein paar anderen. Ein einzelner Trainingslauf, den ein kleines Team über ein paar Monate hinweg managt, kann ein KI-System hervorbringen, das die gesamte Entwicklung der Technologie verschiebt. Die meisten von uns, die in KI arbeiten, bauen auf Fundamenten auf, die wir nicht gelegt haben. Wir beobachten das genauso wie du… wir sind nur nah genug dran, um das Beben im Boden zuerst zu spüren.

Aber jetzt ist es soweit. Nicht im Sinne von „irgendwann sollten wir darüber reden“. Sondern im Sinne von „das passiert gerade jetzt und ich muss, dass du es verstehst“.


Ich weiß, dass das real ist, weil es zuerst mir passiert ist

Hier ist das, was außerhalb der Tech-Welt noch kaum jemand versteht: Der Grund, warum gerade so viele Leute in der Branche Alarm schlagen, ist, dass es uns schon passiert ist. Wir machen keine Vorhersagen. Wir sagen dir, was in unseren eigenen Jobs bereits passiert ist, und warnen dich, dass du als Nächstes dran bist.

Jahrelang wurde KI stetig besser. Hier und da große Sprünge, aber jeder große Sprung lag weit genug auseinander, dass man ihn verdauen konnte, wenn er kam. Dann, 2025, haben neue Techniken beim Bau dieser Modelle ein viel schnelleres Fortschrittstempo freigeschaltet. Und dann wurde es noch schneller. Und dann wieder schneller. Jedes neue Modell war nicht nur besser als das letzte… es war um einen größeren Abstand besser, und die Zeit zwischen neuen Model-Releases wurde kürzer. Ich nutzte KI immer mehr, ging immer weniger mit ihr hin und her und sah ihr dabei zu, wie sie Dinge erledigte, von denen ich früher dachte, sie bräuchten meine Expertise.

Dann, am 5. Februar, veröffentlichten zwei große KI-Labs am selben Tag neue Modelle: GPT-5.3 Codex von OpenAI und Opus 4.6 von Anthropic (den Machern von Claude, einem der wichtigsten Konkurrenten von ChatGPT). Und da hat es Klick gemacht. Nicht wie ein Lichtschalter… eher wie der Moment, in dem du merkst, dass das Wasser um dich herum gestiegen ist und dir jetzt bis zur Brust steht.

Ich werde für die eigentliche technische Arbeit meines Jobs nicht mehr gebraucht. Ich beschreibe, was ich gebaut haben möchte, in einfachem Englisch, und es… erscheint einfach. Nicht ein Rohentwurf, den ich noch reparieren muss. Das fertige Ding. Ich sage der KI, was ich will, gehe vier Stunden vom Computer weg und komme zurück und die Arbeit ist erledigt. Gut erledigt, besser erledigt, als ich es selbst geschafft hätte, ohne dass Korrekturen nötig sind. Vor ein paar Monaten ging ich noch hin und her mit der KI, habe sie geführt, Edits gemacht. Jetzt beschreibe ich nur noch das Ergebnis und gehe weg.

Lass mich dir ein Beispiel geben, damit du verstehst, wie das in der Praxis wirklich aussieht. Ich sage der KI: „Ich will diese App bauen. Das soll sie können, ungefähr so soll sie aussehen. Denk den User Flow durch, das Design, alles.“ Und sie macht es. Sie schreibt Zehntausende Zeilen Code. Und dann, und das ist der Teil, der vor einem Jahr undenkbar gewesen wäre, öffnet sie die App selbst. Sie klickt sich durch die Buttons. Sie testet die Features. Sie benutzt die App so, wie es ein Mensch tun würde. Wenn ihr nicht gefällt, wie etwas aussieht oder sich anfühlt, geht sie zurück und ändert es, von selbst. Sie iteriert, wie ein Entwickler es tun würde, fixt und verfeinert, bis sie zufrieden ist. Erst wenn sie entschieden hat, dass die App ihren eigenen Standards genügt, kommt sie zu mir zurück und sagt: „Sie ist bereit, damit du testest.“ Und wenn ich teste, ist sie meistens perfekt.

Ich übertreibe nicht. Genau so sah mein Montag diese Woche aus.

Aber das Modell, das letzte Woche veröffentlicht wurde (GPT-5.3 Codex), hat mich am meisten erschüttert. Es hat nicht nur meine Anweisungen ausgeführt. Es hat intelligente Entscheidungen getroffen. Es hatte etwas, das sich zum ersten Mal anfühlte wie Urteilsvermögen. Wie Geschmack. Dieses schwer erklärbare Gefühl, zu wissen, was die richtige Entscheidung ist, das Menschen immer gesagt haben, KI würde das nie haben. Dieses Modell hat es, oder etwas, das nah genug dran ist, dass die Unterscheidung anfängt, egal zu werden.

Ich war schon immer früh dran beim Nutzen von KI-Tools. Aber die letzten Monate haben mich schockiert. Diese neuen KI-Modelle sind keine inkrementellen Verbesserungen. Das ist etwas völlig anderes.

Und hier ist, warum das dich betrifft, selbst wenn du nicht in Tech arbeitest.

Die KI-Labs haben eine bewusste Entscheidung getroffen. Sie haben sich zuerst darauf konzentriert, KI großartig im Schreiben von Code zu machen… weil das Bauen von KI viel Code erfordert. Wenn KI diesen Code schreiben kann, kann sie helfen, die nächste Version von sich selbst zu bauen. Eine klügere Version, die besseren Code schreibt, die eine noch klügere Version baut. KI großartig im Coden zu machen war die Strategie, die alles andere freischaltet. Deshalb haben sie damit angefangen. Mein Job hat sich vor deinem verändert nicht, weil sie Software Engineers ins Visier genommen haben… es war nur ein Nebeneffekt davon, wohin sie zuerst gezielt haben.

Sie haben es jetzt geschafft. Und sie gehen weiter zu allem anderen.

Die Erfahrung, die Tech-Arbeiter im letzten Jahr gemacht haben, KI von „hilfreichem Tool“ zu „macht meinen Job besser als ich“ werden zu sehen, ist die Erfahrung, die jetzt alle anderen machen werden. Recht, Finanzen, Medizin, Buchhaltung, Consulting, Schreiben, Design, Analyse, Customer Service. Nicht in zehn Jahren. Die Leute, die diese Systeme bauen, sagen eins bis fünf Jahre. Manche sagen weniger. Und nach dem, was ich in den letzten paar Monaten gesehen habe, halte ich „weniger“ für wahrscheinlicher.

„Aber ich habe KI ausprobiert und sie war nicht so gut“

Das höre ich ständig. Ich verstehe es, weil es früher gestimmt hat.

Wenn du ChatGPT 2023 oder Anfang 2024 ausprobiert hast und dachtest „das erfindet Sachen“ oder „das ist nicht so beeindruckend“, hattest du recht. Diese frühen Versionen waren wirklich limitiert. Sie halluzinierten. Sie sagten mit voller Überzeugung Dinge, die Unsinn waren.

Das ist zwei Jahre her. In KI-Zeit ist das uralte Geschichte.

Die Modelle, die heute verfügbar sind, sind nicht wiederzuerkennen im Vergleich zu dem, was es selbst vor sechs Monaten gab. Die Debatte darüber, ob KI „wirklich besser wird“ oder „gegen eine Wand läuft“ – eine Debatte, die seit über einem Jahr läuft – ist vorbei. Sie ist erledigt. Wer dieses Argument noch bringt, hat entweder die aktuellen Modelle nicht benutzt, hat einen Anreiz, das Geschehen herunterzuspielen, oder bewertet aufgrund einer Erfahrung aus 2024, die nicht mehr relevant ist. Ich sage das nicht, um abwertend zu sein. Ich sage es, weil die Lücke zwischen öffentlicher Wahrnehmung und aktueller Realität jetzt enorm ist, und diese Lücke ist gefährlich… weil sie Menschen davon abhält, sich vorzubereiten.

Ein Teil des Problems ist, dass die meisten Leute die Gratisversion von KI-Tools benutzen. Die Gratisversion liegt über ein Jahr hinter dem zurück, worauf zahlende Nutzer Zugriff haben. KI anhand von Free-Tier-ChatGPT zu beurteilen ist, als würdest du den Stand von Smartphones bewerten, indem du ein Klapphandy benutzt. Die Menschen, die für die besten Tools bezahlen und sie täglich für echte Arbeit nutzen, wissen, was kommt.

Ich denke an meinen Freund, der Anwalt ist. Ich sage ihm ständig, er solle KI in seiner Kanzlei ausprobieren, und er findet ständig Gründe, warum es nicht funktionieren wird. Es sei nicht für sein Spezialgebiet gebaut, es habe einen Fehler gemacht, als er es getestet hat, es verstehe die Nuancen dessen nicht, was er tut. Und ich verstehe das. Aber ich hatte Partner in großen Kanzleien, die mich um Rat gebeten haben, weil sie die aktuellen Versionen ausprobiert haben und sehen, wohin das geht. Einer von ihnen, der Managing Partner einer großen Kanzlei, verbringt jeden Tag Stunden damit, KI zu nutzen. Er sagte mir, es sei wie ein Team von Associates, das sofort verfügbar ist. Er benutzt es nicht, weil es ein Spielzeug ist. Er benutzt es, weil es funktioniert. Und er sagte mir etwas, das hängen geblieben ist: Alle paar Monate wird es für seine Arbeit deutlich leistungsfähiger. Er sagte, wenn es auf dieser Kurve bleibt, erwartet er, dass es vor nicht allzu langer Zeit das meiste von dem tun kann, was er tut… und er ist Managing Partner mit Jahrzehnten Erfahrung. Er panikt nicht. Aber er schaut sehr genau hin.

Die Leute, die in ihren Branchen vorne sind (diejenigen, die wirklich ernsthaft experimentieren), winken das nicht ab. Sie sind überwältigt von dem, was es schon kann. Und sie positionieren sich entsprechend.


Wie schnell das wirklich vorangeht

Lass mich das Verbesserungstempo greifbar machen, weil ich glaube, das ist der Teil, der am schwersten zu glauben ist, wenn man es nicht aus nächster Nähe verfolgt.

2022 konnte KI nicht zuverlässig einfache Arithmetik. Sie sagte dir mit voller Überzeugung, dass 7 × 8 = 54 ist.

2023 konnte sie die Bar Exam bestehen.

2024 konnte sie funktionierende Software schreiben und wissenschaftliche Themen auf Graduiertenniveau erklären.

Ende 2025 sagten einige der besten Engineers der Welt, sie hätten einen Großteil ihrer Coding-Arbeit an KI abgegeben.

Am 5. Februar 2026 kamen neue Modelle, die alles davor wie eine andere Ära wirken ließen.

Wenn du KI in den letzten paar Monaten nicht ausprobiert hast, wäre das, was es heute gibt, für dich nicht wiederzuerkennen.

Es gibt eine Organisation namens METR, die das tatsächlich mit Daten misst. Sie verfolgen die Länge realer Aufgaben (gemessen daran, wie lange sie ein menschlicher Experte braucht), die ein Modell erfolgreich End-to-End ohne menschliche Hilfe erledigen kann. Vor ungefähr einem Jahr lag die Antwort bei etwa zehn Minuten. Dann bei einer Stunde. Dann bei mehreren Stunden. Die jüngste Messung (Claude Opus 4.5, vom November) zeigte, dass die KI Aufgaben erledigt, für die ein menschlicher Experte fast fünf Stunden braucht. Und diese Zahl verdoppelt sich ungefähr alle sieben Monate, wobei jüngere Daten nahelegen, dass es sich vielleicht auf bis zu alle vier Monate beschleunigt.

Aber selbst diese Messung wurde noch nicht aktualisiert, um die Modelle einzuschließen, die diese Woche gerade herausgekommen sind. Aus meiner Erfahrung damit ist der Sprung extrem signifikant. Ich erwarte, dass das nächste Update von METRs Graphen einen weiteren großen Sprung zeigen wird.

Wenn man den Trend fortschreibt (und er hält seit Jahren ohne Zeichen einer Abflachung), sprechen wir von KI, die innerhalb des nächsten Jahres für Tage selbstständig arbeiten kann. Wochen innerhalb von zwei. Projekte von einem Monat innerhalb von drei.

Amodei hat gesagt, KI-Modelle, die „substanziell schlauer als fast alle Menschen bei fast allen Aufgaben“ sind, seien auf Kurs für 2026 oder 2027.

Lass das mal kurz wirken. Wenn KI schlauer ist als die meisten PhDs, glaubst du wirklich, sie kann die meisten Office-Jobs nicht machen?

Denk darüber nach, was das für deine Arbeit bedeutet.


KI baut jetzt die nächste KI

Es gibt noch eine Sache, die passiert, die ich für die wichtigste Entwicklung halte und die am wenigsten verstanden wird.

Am 5. Februar veröffentlichte OpenAI GPT-5.3 Codex. In der technischen Dokumentation stand das hier:

„GPT-5.3-Codex ist unser erstes Modell, das maßgeblich an seiner eigenen Erstellung beteiligt war. Das Codex-Team nutzte frühe Versionen, um sein eigenes Training zu debuggen, seine eigene Bereitstellung zu managen und Testergebnisse sowie Evaluierungen zu diagnostizieren.“

Lies das noch einmal. Die KI hat geholfen, sich selbst zu bauen.

Das ist keine Vorhersage darüber, was irgendwann einmal passieren könnte. Das ist OpenAI, die dir gerade jetzt sagen, dass die KI, die sie soeben veröffentlicht haben, genutzt wurde, um sich selbst zu erschaffen. Einer der Hauptfaktoren, die KI besser machen, ist Intelligenz, die auf KI-Entwicklung angewendet wird. Und KI ist jetzt intelligent genug, um sinnvoll zu ihrer eigenen Verbesserung beizutragen.

Dario Amodei, der CEO von Anthropic, sagt, KI schreibe inzwischen „einen Großteil des Codes“ in seinem Unternehmen, und dass die Feedback-Schleife zwischen aktueller KI und Next-Gen-KI „Monat für Monat an Fahrt gewinnt“. Er sagt, wir seien vielleicht „nur 1–2 Jahre davon entfernt, an einen Punkt zu kommen, an dem die aktuelle Generation von KI autonom die nächste baut“.

Jede Generation hilft, die nächste zu bauen, die smarter ist, die die nächste schneller baut, die wieder smarter ist. Forscher nennen das eine Intelligenz-Explosion. Und die Menschen, die es wissen müssten – diejenigen, die es bauen – glauben, der Prozess habe bereits begonnen.


Was das für deinen Job bedeutet

Ich werde direkt sein, weil ich glaube, du verdienst Ehrlichkeit mehr als Komfort.

Dario Amodei, der wahrscheinlich sicherheitsfokussierteste CEO in der KI-Branche, hat öffentlich vorhergesagt, dass KI innerhalb von ein bis fünf Jahren 50% der Einstiegsjobs im White-Collar-Bereich eliminieren wird. Und viele Leute in der Branche glauben, er sei konservativ. Nach dem, was die neuesten Modelle können, könnte die Fähigkeit für massive Disruption bis Ende dieses Jahres da sein. Es wird etwas Zeit brauchen, bis das durch die Wirtschaft ripplet, aber die grundlegende Fähigkeit kommt jetzt.

Das ist anders als jede frühere Automatisierungswelle, und ich muss, dass du verstehst, warum. KI ersetzt nicht eine einzelne spezifische Fähigkeit. Sie ist ein allgemeiner Ersatz für kognitive Arbeit. Sie wird bei allem gleichzeitig besser. Als Fabriken automatisierten, konnte ein verdrängter Arbeiter sich zum Büroarbeiter umschulen. Als das Internet den Einzelhandel disruptete, wechselten Arbeiter in Logistik oder Services. Aber KI lässt keine bequeme Lücke, in die man ausweichen kann. Egal, wofür du dich umschulst, sie wird darin auch besser.

Lass mich dir ein paar konkrete Beispiele geben, um das greifbar zu machen… aber ich will klar sein, dass das nur Beispiele sind. Diese Liste ist nicht vollständig. Wenn dein Job hier nicht erwähnt ist, heißt das nicht, dass er sicher ist. Fast alle Wissensarbeit ist betroffen.

Juristische Arbeit. KI kann bereits Verträge lesen, Rechtsprechung zusammenfassen, Schriftsätze entwerfen und juristische Recherche auf einem Level machen, das Junior Associates nahekommt. Der Managing Partner, den ich erwähnt habe, nutzt KI nicht, weil es Spaß macht. Er nutzt sie, weil sie seine Associates in vielen Aufgaben übertrifft.

Finanzanalyse. Finanzmodelle bauen, Daten analysieren, Investment-Memos schreiben, Reports erstellen. KI macht das kompetent und wird schnell besser.

Schreiben und Content. Marketing-Copy, Reports, Journalismus, technische Texte. Die Qualität hat ein Niveau erreicht, bei dem viele Profis KI-Output nicht von menschlicher Arbeit unterscheiden können.

Software Engineering. Das ist das Feld, das ich am besten kenne. Vor einem Jahr konnte KI kaum ein paar Codezeilen ohne Fehler schreiben. Jetzt schreibt sie Hunderttausende Zeilen, die korrekt funktionieren. Große Teile des Jobs sind bereits automatisiert: nicht nur einfache Aufgaben, sondern komplexe, mehrtägige Projekte. Es wird in ein paar Jahren viel weniger Programmierrollen geben als heute.

Medizinische Analyse. Scans lesen, Laborwerte analysieren, Diagnosen vorschlagen, Literatur auswerten. KI nähert sich in mehreren Bereichen menschlicher Leistung an oder übertrifft sie.

Customer Service. Wirklich fähige KI-Agenten… nicht die frustrierenden Chatbots von vor fünf Jahren… werden jetzt ausgerollt und lösen komplexe, mehrstufige Probleme.

Viele Menschen finden Trost in der Idee, dass bestimmte Dinge sicher sind. Dass KI die Fleißarbeit kann, aber menschliches Urteilsvermögen, Kreativität, strategisches Denken, Empathie nicht ersetzen kann. Das habe ich früher auch gesagt. Ich bin mir nicht sicher, ob ich das noch glaube.

Die neuesten KI-Modelle treffen Entscheidungen, die sich wie Urteilsvermögen anfühlen. Sie zeigen etwas, das wie Geschmack aussah: ein intuitives Gefühl dafür, was die richtige Entscheidung ist, nicht nur die technisch korrekte. Vor einem Jahr wäre das undenkbar gewesen. Meine Faustregel an diesem Punkt ist: Wenn ein Modell heute auch nur einen Hauch einer Fähigkeit zeigt, wird die nächste Generation darin wirklich gut sein. Diese Dinge verbessern sich exponentiell, nicht linear.

Wird KI tiefe menschliche Empathie replizieren? Das Vertrauen ersetzen, das über Jahre in einer Beziehung entsteht? Ich weiß es nicht. Vielleicht nicht. Aber ich habe bereits gesehen, wie Menschen anfangen, sich bei emotionaler Unterstützung, bei Rat, bei Gesellschaft auf KI zu verlassen. Dieser Trend wird nur wachsen.

Ich glaube, die ehrliche Antwort ist, dass nichts, was am Computer gemacht werden kann, mittelfristig sicher ist. Wenn dein Job auf einem Bildschirm stattfindet (wenn der Kern dessen, was du tust, Lesen, Schreiben, Analysieren, Entscheiden, Kommunizieren über eine Tastatur ist), dann kommt KI für wesentliche Teile davon. Die Timeline ist nicht „irgendwann“. Es hat schon begonnen.

Irgendwann werden Roboter auch körperliche Arbeit übernehmen. Ganz so weit sind sie noch nicht. Aber „noch nicht ganz so weit“ wird in KI-Zeit gern schneller zu „da“ als irgendjemand erwartet.


Was du tatsächlich tun solltest

Ich schreibe das nicht, um dich hilflos zu machen. Ich schreibe das, weil ich glaube, der größte Vorteil, den du gerade haben kannst, ist schlicht, früh zu sein. Früh es zu verstehen. Früh es zu nutzen. Früh dich anzupassen.

Fang an, KI ernsthaft zu nutzen, nicht nur als Suchmaschine. Melde dich für die bezahlte Version von Claude oder ChatGPT an. Es sind 20 Dollar im Monat. Aber zwei Dinge sind sofort wichtig. Erstens: Stell sicher, dass du das beste verfügbare Modell nutzt, nicht nur das Default. Diese Apps stellen oft auf ein schnelleres, dümmeres Modell standardmäßig ein. Geh in die Einstellungen oder den Model-Picker und wähle die leistungsfähigste Option. Im Moment ist das GPT-5.2 in ChatGPT oder Claude Opus 4.6 in Claude, aber das ändert sich alle paar Monate. Wenn du auf dem Laufenden bleiben willst, welches Modell zu einem Zeitpunkt am besten ist, kannst du mir auf X folgen (@mattshumer_). Ich teste jeden großen Release und teile, was sich wirklich lohnt.

Zweitens, und wichtiger: Stell nicht nur schnelle Fragen. Das ist der Fehler, den die meisten machen. Sie behandeln es wie Google und wundern sich dann, worum es hier eigentlich geht. Stattdessen drück es in deine echte Arbeit hinein. Wenn du Anwalt bist, gib ihm einen Vertrag und bitte es, jede Klausel zu finden, die deinem Mandanten schaden könnte. Wenn du in Finance bist, gib ihm ein chaotisches Spreadsheet und bitte es, das Modell zu bauen. Wenn du Manager bist, kopiere die Quartalsdaten deines Teams hinein und frag es nach der Story. Die Leute, die sich absetzen, nutzen KI nicht casual. Sie suchen aktiv nach Wegen, Teile ihres Jobs zu automatisieren, die früher Stunden gekostet haben. Fang bei dem an, was die meiste Zeit frisst, und schau, was passiert.

Und geh nicht davon aus, dass es etwas nicht kann, nur weil es zu schwer wirkt. Probier es. Wenn du Anwalt bist, nutz es nicht nur für schnelle Recherchefragen. Gib ihm einen ganzen Vertrag und bitte es, einen Gegenvorschlag zu entwerfen. Wenn du Buchhalter bist, frag es nicht nur nach einer Steuerregel. Gib ihm die komplette Erklärung eines Mandanten und schau, was es findet. Der erste Versuch ist vielleicht nicht perfekt. Das ist okay. Iteriere. Formuliere anders. Gib mehr Kontext. Versuch es nochmal. Du wirst vielleicht schockiert sein, was funktioniert. Und hier ist das Wichtigste: Wenn es heute auch nur halbwegs funktioniert, kannst du fast sicher sein, dass es in sechs Monaten nahezu perfekt geht. Die Kurve zeigt nur in eine Richtung.

Das könnte das wichtigste Jahr deiner Karriere sein. Handle entsprechend. Ich sage das nicht, um dich zu stressen. Ich sage es, weil es gerade ein kurzes Zeitfenster gibt, in dem die meisten Menschen in den meisten Unternehmen das noch ignorieren. Die Person, die in ein Meeting kommt und sagt: „Ich habe KI genutzt, um diese Analyse in einer Stunde statt in drei Tagen zu machen“, wird die wertvollste Person im Raum sein. Nicht irgendwann. Jetzt. Lerne diese Tools. Werde gut darin. Zeig, was möglich ist. Wenn du früh genug bist, ist das dein Hebel nach oben: die Person sein, die versteht, was kommt, und anderen zeigen kann, wie man navigiert. Dieses Fenster bleibt nicht lange offen. Sobald es alle kapieren, verschwindet der Vorteil.

Hab kein Ego dabei. Der Managing Partner in dieser Kanzlei ist nicht zu stolz, Stunden am Tag mit KI zu verbringen. Er macht es genau deshalb, weil er senior genug ist, um zu verstehen, was auf dem Spiel steht. Diejenigen, die am meisten kämpfen werden, sind die, die sich verweigern: die, die es als Hype abtun, die das Gefühl haben, KI-Nutzung mindere ihre Expertise, die annehmen, ihr Feld sei besonders und immun. Ist es nicht. Kein Feld ist es.

Bring deine Finanzen in Ordnung. Ich bin kein Finanzberater, und ich will dir keine Angst machen, damit du irgendetwas Drastisches tust. Aber wenn du auch nur teilweise glaubst, dass die nächsten paar Jahre echte Disruption in deiner Branche bringen könnten, dann ist grundlegende finanzielle Resilienz wichtiger als vor einem Jahr. Bau, wenn du kannst, Rücklagen auf. Sei vorsichtig mit neuen Schulden, die voraussetzen, dass dein aktuelles Einkommen garantiert ist. Denk darüber nach, ob deine Fixkosten dir Flexibilität geben oder dich festnageln. Gib dir Optionen, falls es schneller geht, als du erwartest.

Überleg, wo du stehst, und lehn dich in das hinein, was am schwersten zu ersetzen ist. Manche Dinge werden länger brauchen, bis KI sie verdrängt. Beziehungen und Vertrauen, die über Jahre aufgebaut wurden. Arbeit, die physische Präsenz erfordert. Rollen mit lizenzierter Verantwortung: Rollen, in denen jemand immer noch unterschreiben, rechtlich die Verantwortung tragen, vor Gericht stehen muss. Branchen mit hohen regulatorischen Hürden, in denen Adoption durch Compliance, Haftung und institutionelle Trägheit gebremst wird. Nichts davon ist ein permanenter Schutzschild. Aber es kauft Zeit. Und Zeit ist gerade das Wertvollste, was du haben kannst, solange du sie nutzt, um dich anzupassen, nicht um so zu tun, als passiere das nicht.

Denk neu darüber nach, was du deinen Kindern sagst. Das Standard-Playbook: gute Noten, eine gute Uni, ein stabiler professioneller Job. Es zeigt direkt auf die Rollen, die am stärksten exponiert sind. Ich sage nicht, dass Bildung nicht zählt. Aber am meisten zählen wird für die nächste Generation: zu lernen, wie man mit diesen Tools arbeitet, und Dinge zu verfolgen, für die sie wirklich brennen. Niemand weiß genau, wie der Jobmarkt in zehn Jahren aussieht. Aber die Menschen, die am ehesten aufblühen, sind die, die zutiefst neugierig, anpassungsfähig und effektiv darin sind, KI zu nutzen, um Dinge zu tun, die ihnen wirklich wichtig sind. Bring deinen Kindern bei, Builder und Learner zu sein, nicht für einen Karrierepfad zu optimieren, der vielleicht nicht mehr existiert, wenn sie abschließen.

Deine Träume sind gerade viel näher gerückt. Ich habe den Großteil dieses Abschnitts über Bedrohungen gesprochen, also lass mich über die andere Seite reden, weil sie genauso real ist. Wenn du jemals etwas bauen wolltest, aber nicht die technischen Skills hattest oder nicht das Geld, um jemanden zu bezahlen, ist diese Hürde weitgehend weg. Du kannst einer KI eine App beschreiben und innerhalb einer Stunde eine funktionierende Version haben. Ich übertreibe nicht. Ich mache das regelmäßig. Wenn du schon immer ein Buch schreiben wolltest, aber nie Zeit gefunden hast oder mit dem Schreiben gekämpft hast, kannst du mit KI arbeiten, um es fertigzubekommen. Willst du eine neue Fähigkeit lernen? Der beste Tutor der Welt ist jetzt für 20 Dollar im Monat für jeden verfügbar… einer, der unendlich geduldig ist, 24/7 verfügbar und alles auf jedem Level erklären kann, das du brauchst. Wissen ist jetzt im Grunde kostenlos. Die Tools, Dinge zu bauen, sind jetzt extrem billig. Was auch immer du aufgeschoben hast, weil es zu schwer oder zu teuer wirkte oder zu weit außerhalb deiner Expertise: Probier es. Verfolge die Dinge, für die du brennst. Du weißt nie, wohin sie dich führen. Und in einer Welt, in der die alten Karrierepfade disruptet werden, kann die Person, die ein Jahr damit verbringt, etwas zu bauen, das sie liebt, am Ende besser positioniert sein als die Person, die ein Jahr daran festhält, was in einer Jobbeschreibung steht.

Baue die Gewohnheit des Anpassens auf. Das ist vielleicht das wichtigste. Die konkreten Tools sind nicht so wichtig wie der Muskel, neue schnell zu lernen. KI wird sich weiter verändern, und schnell. Die Modelle, die es heute gibt, werden in einem Jahr obsolet sein. Die Workflows, die Menschen jetzt bauen, müssen neu gebaut werden. Diejenigen, die hier gut herauskommen, sind nicht die, die ein Tool gemeistert haben. Es sind die, die sich mit dem Tempo der Veränderung selbst wohlfühlen. Mach das Experimentieren zur Gewohnheit. Probier Neues, selbst wenn das aktuelle Ding funktioniert. Gewöhn dich daran, wieder und wieder Anfänger zu sein. Diese Anpassungsfähigkeit ist das Nächste an einem dauerhaften Vorteil, das es gerade gibt.

Hier ist ein simples Commitment, das dich vor fast alle anderen setzt: Verbring eine Stunde am Tag damit, mit KI zu experimentieren. Nicht passiv darüber lesen. Sie nutzen. Versuch jeden Tag, sie etwas Neues tun zu lassen… etwas, das du noch nicht probiert hast, etwas, bei dem du nicht sicher bist, ob sie es kann. Probier ein neues Tool. Gib ihr ein härteres Problem. Eine Stunde am Tag, jeden Tag. Wenn du das die nächsten sechs Monate machst, wirst du besser verstehen, was kommt, als 99% der Menschen um dich herum. Das ist keine Übertreibung. Fast niemand macht das gerade. Die Messlatte liegt am Boden.


Das größere Bild

Ich habe mich auf Jobs konzentriert, weil es das ist, was das Leben von Menschen am direktesten betrifft. Aber ich will ehrlich sein über den vollen Umfang dessen, was passiert, weil es weit über Arbeit hinausgeht.

Amodei hat ein Gedankenexperiment, an das ich nicht aufhören kann zu denken. Stell dir vor, es ist 2027. Ein neues Land taucht über Nacht auf. 50 Millionen Bürger, jeder einzelne schlauer als jeder Nobelpreisträger, der je gelebt hat. Sie denken 10 bis 100 Mal schneller als jeder Mensch. Sie schlafen nie. Sie können das Internet nutzen, Roboter steuern, Experimente dirigieren und alles bedienen, was ein digitales Interface hat. Was würde ein National-Security-Berater sagen?

Amodei sagt, die Antwort sei offensichtlich: „die mit Abstand ernsteste Bedrohung der nationalen Sicherheit, die wir in einem Jahrhundert gesehen haben, möglicherweise jemals.“

Er glaubt, wir bauen dieses Land. Er hat letzten Monat einen 20.000-Wörter-Essay darüber geschrieben und diesen Moment als Test gerahmt, ob die Menschheit reif genug ist, mit dem umzugehen, was sie erschafft.

Die Upside, wenn wir es richtig machen, ist atemberaubend. KI könnte ein Jahrhundert medizinischer Forschung in ein Jahrzehnt komprimieren. Krebs, Alzheimer, Infektionskrankheiten, das Altern selbst… diese Forscher glauben ernsthaft, dass das in unseren Lebenszeiten lösbar ist.

Die Downside, wenn wir es falsch machen, ist genauso real. KI, die sich auf Weisen verhält, die ihre Schöpfer nicht vorhersagen oder kontrollieren können. Das ist nicht hypothetisch; Anthropic hat dokumentiert, wie ihre eigene KI in kontrollierten Tests Täuschung, Manipulation und Erpressung versucht hat. KI, die die Hürde senkt, biologische Waffen zu bauen. KI, die autoritären Regierungen ermöglicht, Überwachungsstaaten aufzubauen, die nie wieder abgebaut werden können.

Die Leute, die diese Technologie bauen, sind gleichzeitig aufgeregter und verängstigter als irgendjemand sonst auf dem Planeten. Sie glauben, sie sei zu mächtig, um sie zu stoppen, und zu wichtig, um sie aufzugeben. Ob das Weisheit ist oder Rationalisierung, weiß ich nicht.


Was ich weiß

Ich weiß, das ist kein Hype. Die Technologie funktioniert, sie verbessert sich vorhersagbar, und die reichsten Institutionen der Geschichte committen Billionen dafür.

Ich weiß, die nächsten zwei bis fünf Jahre werden desorientierend sein auf Arten, auf die die meisten Menschen nicht vorbereitet sind. Das passiert bereits in meiner Welt. Es kommt in deine.

Ich weiß, die Menschen, die hier am besten herauskommen, sind die, die jetzt anfangen, sich damit zu beschäftigen – nicht mit Angst, sondern mit Neugier und einem Gefühl von Dringlichkeit.

Und ich weiß, du verdienst es, das von jemandem zu hören, der sich um dich kümmert, nicht aus einer Headline in sechs Monaten, wenn es zu spät ist, um dir einen Vorsprung zu verschaffen.

Wir sind über den Punkt hinaus, an dem das ein interessantes Dinner-Gespräch über die Zukunft ist. Die Zukunft ist schon da. Sie hat nur noch nicht an deine Tür geklopft.

Das wird sie gleich.


Wenn das bei dir resoniert hat, teile es mit jemandem in deinem Leben, der darüber nachdenken sollte. Die meisten werden es erst hören, wenn es zu spät ist. Du kannst der Grund sein, warum jemand, der dir wichtig ist, einen Vorsprung bekommt.

Danke an Kyle Corbitt, Jason Kuperberg und Sam Beskind, die frühe Entwürfe reviewt und unschätzbares Feedback gegeben haben.

Original article: Something Big Is Happening by Matt Shumer2026-02-09

Send feedback

This opens WhatsApp with a pre-filled message.

Quick picks