Các mô hình AI hiện nay như LLM chỉ phân tích thống kê dữ liệu, không hiểu thực chất thế giới hay suy luận như con người, và yêu cầu năng lượng khổng lồ để hoạt động.
Ví dụ, bộ não con người chỉ tiêu tốn 20 watt điện, nhưng vẫn vượt trội hơn AI trong tư duy trừu tượng, sáng tạo và tương tác xã hội — những khía cạnh trí tuệ quan trọng nhất.
Để đạt sức mạnh xử lý tương đương một bộ não, một hệ thống AI hiện tại cần lượng điện bằng cả thành phố Dallas (dân số khoảng 1,3 triệu người).
Càng mở rộng AI theo hướng hiện tại (nhiều tham số, nhiều GPU), càng gặp vấn đề về hiệu suất, quy mô, chi phí và giới hạn vật lý.
Tác giả lập luận rằng, thay vì cố gắng mở rộng phần cứng, chúng ta nên quay lại gốc rễ: bộ não sinh học, đặc biệt là nghiên cứu trên khỉ và vượn – loài có cấu trúc não bộ gần giống con người.
Các nghiên cứu trên khỉ cho phép quan sát cơ chế tư duy với độ chính xác cao, điều gần như không thể làm với người.
BRAIN Initiative ở Mỹ đã đạt nhiều bước tiến lớn trong việc lập bản đồ hoạt động thần kinh, nhưng cần bước tiếp theo: ứng dụng nguyên lý não bộ vào thiết kế AI.
Trung Quốc đang đi trước với hơn 40 trung tâm nuôi dưỡng linh trưởng và đầu tư mạnh vào việc giải mã não bộ phục vụ công nghệ.
Trong khi đó, nghiên cứu trên khỉ tại Mỹ đang bị thiếu tài trợ, chịu áp lực chính trị và từ các nhóm vận động, khiến AI sinh học bị gạt ra rìa.
Những hướng thay thế như mô hình sinh học trên chip hay cách tiếp cận chỉ thuần kỹ thuật không thể tái hiện chính xác sự năng động phức tạp của một bộ não sống.
Bài viết cho rằng, để đạt được AI thật sự giống người, nước nào hiểu được cách não hoạt động sẽ dẫn đầu thế kỷ 21, giống như Manhattan Project hay sự ra đời của transistor đã từng định hình lịch sử công nghệ.
Chính phủ Mỹ cần đầu tư mạnh mẽ hơn vào nghiên cứu não bộ để tránh bỏ lỡ bước nhảy công nghệ kế tiếp — không phải trong Thung lũng Silicon, mà là trong phòng thí nghiệm thần kinh học.
Nếu chỉ tối ưu mô hình hiện tại vì lợi nhuận ngắn hạn, Mỹ sẽ tụt lại sau trong cuộc đua tạo ra trí tuệ nhân tạo thật sự thông minh và hiệu quả.
📌 AI ngày nay ngốn hàng megawatt điện mà vẫn thiếu khả năng tư duy thực sự. Trong khi đó, bộ não người chỉ dùng 20 watt để xử lý tư duy phức tạp. Bài viết nhấn mạnh: để đạt AI thực sự thông minh, Mỹ phải quay lại nghiên cứu sinh học, đặc biệt là não khỉ. Với hơn 40 trung tâm nghiên cứu ở Trung Quốc, nước này đang dẫn trước. Muốn thắng trong kỷ nguyên AI, không thể bỏ qua khoa học thần kinh.
https://www.wsj.com/opinion/the-future-of-ai-lies-in-monkeys-not-microchips-c855aad6
The Future of AI Lies in Monkeys, Not Microchips
Neuroscience research on primates will help us learn how to build an efficient thinking machine.
By Cory Miller
Aug. 20, 2025 1:46 pm ET
A robot serves popcorn during the World Artificial Intelligence Conference in Shanghai, July 29.
The artificial-intelligence boom has all the hallmarks of a gold rush: frenzied investment, sweeping promises and a race to build ever-bigger models. But behind the hype lies a remarkable shortsightedness—one that threatens AI’s promise to transform our world.
AI systems, including the most powerful large language models, rely on computational force. Despite their apparent sophistication, these models don’t understand the world; they merely identify statistical patterns in massive data sets. They can’t form abstract concepts, adapt to unfamiliar environments or learn from sparse information the way a human toddler can. They function only with enormous hardware, constant access to vast training data, and unsustainable amounts of electrical power.
The human brain runs on 20 watts of power—less than a lightbulb. Yet it consistently outperforms AI in the forms of intelligence we care about most: abstraction, reasoning, creativity and social understanding (people skills). To match the computational power of a single human brain, a leading AI system would require the same amount of energy that powers the entire city of Dallas. Let that sink in for a second. One lightbulb versus a city of 1.3 million people. Do we even need to calculate how much power would be needed for 1.3 million models to grasp how unrealistic that would be?
These extreme energy and data demands are wasteful—and a warning sign. As models swell into the hundreds of billions of parameters, the infrastructure needed to support them scales exponentially. The U.S. doesn’t generate enough electricity to power the growing fleet of data centers behind today’s AI. The deeper we dig into this paradigm, the more we run into its bottlenecks: scale, inefficiency and diminishing returns. We are building machines that are larger—but not smarter.
The path to true artificial intelligence—systems that can reason, learn flexibly and generalize like humans—won’t come from stacking more graphics processing units. It will come from a crucial insight: Nature has already solved the problem. The human brain remains the most powerful, adaptable and efficient computing system on the planet. It learns with minimal supervision, thrives in uncertain environments, and adapts fluidly across tasks. It is fast, flexible and energetically frugal.
To achieve real AI, we must develop systems that draw not only from the output of the brain—language and behavior—but from its underlying architecture and mechanisms. This means investing in neuroscience research, especially in the study of our closest evolutionary relatives: monkeys and apes. Our simian cousins share our visual systems and—most important—our core brain architecture. They offer the most direct window into how biological circuits give rise to human intelligence because we can study them with a level of experimental precision that is impossible in humans. The first AI models were inspired by research on the visual system of monkeys, but this approach was abandoned in favor of the simpler models at the heart of today’s AI.
There is already a blueprint that we can follow. More than a decade ago, the U.S. launched the Brain Initiative, an acronym for Brain Research Through Advancing Innovative Neurotechnologies. It is a bold, bipartisan effort to map and understand the neural circuits that drive human thought, emotion and behavior. That program has been among the most successful scientific endeavors in recent history, yielding transformative tools for observing and manipulating brain activity. It laid the groundwork for understanding how intelligence emerges from biology. But we are just at the beginning.
What we need now is a second phase: not only to study the brain but to build from it. We need a national effort to translate the brain’s design principles into next-generation intelligent machines. This idea isn’t new—and other countries are already ahead of us. China is making massive state-backed investments in primate brain research, with at least 40 primate breeding centers nationwide—nearly triple the number in the U.S. It has built a national infrastructure aimed at decoding the brain and converting that knowledge into strategic technological advantage.
By contrast, U.S. research with monkeys is underfunded, vulnerable to political shifts and special-interest groups, and increasingly marginalized in favor of unproven alternatives, such as organ on chips and engineering-first approaches that can’t replicate the dynamics of a whole brain in a living organism, let alone a human.
This isn’t only a scientific issue. It is a strategic one with profound implications for national security and economic leadership. The country that unlocks the principles of biological intelligence will shape the next century of technology. Just as the Manhattan Project delivered atomic power and the transistor launched Silicon Valley, the next great leap will belong to the nation that builds machines that learn and think like a human brain—using a fraction of the energy of today’s AI. That leap won’t come from scaling up semiconductors and data centers. It will come from understanding neural circuits.
President Trump’s administration is betting our economic future on U.S. dominance in AI. But the current AI boom, for all its momentum, is nearing the edge of its paradigm. If the U.S. is serious about creating truly intelligent machines and not merely maximizing capital investments that swell corporate valuations, we must return to biology. The path to real AI does not run solely through Silicon Valley. It runs through laboratories studying real neurons, real circuits and real cognition in the brains of our primate relatives.
To win this race, we cannot rely on engineering shortcuts. We must understand how the “computer” in each of our heads works. Only then will we be able to build machines that achieve genuine intelligence.