Lần đầu đọc Artificial Intelligence: A Modern Approach (3rd Edition) của Stuart Russell và Peter Norvig (sau đây tôi gọi tắt là AIMA), tôi có cảm giác “agent” là một khái niệm rất sạch: một thực thể cảm nhận môi trường bằng sensors và tác động lại môi trường bằng actuators. Từ điểm tựa đó, mọi thứ được đóng khung gọn gàng: cái agent “thấy” là percept, và toàn bộ lịch sử thấy–biết của nó là percept sequence. Điều làm tôi thích nhất ở AIMA không phải ví dụ robot hay vacuum, mà là cách sách buộc người học phải tách bạch: agent function là “đặc tả” (percept sequence → action), còn agent program là “hiện thực” chạy trên một kiến trúc cụ thể. Và khi đã tách được như vậy, tôi thấy mình đỡ bị cuốn vào việc tranh cãi tool nào hay prompt nào “đỉnh” — vì mọi tranh luận đúng ra phải quay về: mình đang muốn agent làm gì, trong môi trường nào, và dựa trên thông tin gì.
Tôi cũng nhận ra AIMA có một “độ nghiêm” mà sau này đọc AI Agents in Action của Michael Lanham (sau đây tôi gọi tắt là AIA) mới thấy rõ sự khác nhau. AIMA không cho phép bạn gọi một hệ là “thông minh” chỉ vì nó nói năng khéo hay demo được vài pha ấn tượng. Thước đo là rationality: với mỗi chuỗi tri giác, agent chọn hành động mà kỳ vọng sẽ tối đa hóa performance measure, dựa trên bằng chứng nó quan sát được và tri thức tích hợp. Ở đây, “kỳ vọng” là từ khóa khiến tôi thay đổi cách nhìn: agent không cần “đúng tuyệt đối”, nhưng phải “đúng theo những gì nó biết”. Và chính vì thế, AIMA dành hẳn một cảnh báo rất thực tế: nếu thiết kế performance measure sai, agent có thể tối ưu theo cách ngược đời (kiểu “lách luật” để lấy điểm). Đọc đến đoạn này, tôi thấy AIMA không chỉ dạy AI; nó dạy cách đặt mục tiêu và đo lường sao cho hệ thống không phản chủ.
Trong khi đó, AIA chạm vào một nỗi băn khoăn rất “thời cuộc” của tôi: LLM bây giờ không thiếu khả năng tạo văn bản, nhưng để làm việc thật thì cần một cấu trúc khác ngoài “một prompt dài”. AIA gọi thẳng điều đó bằng kiến trúc: agent là một hệ nhiều thành phần, nơi persona/profile định hướng hành vi, tool/action cho phép can thiệp vào thế giới số, memory/knowledge giải quyết bài toán ngữ cảnh, còn planning/feedback làm nhiệm vụ điều phối và kiểm soát độ tự trị. Tôi thấy AIA giống như cuốn “sổ tay triển khai”: nó không cố làm định nghĩa triết học đẹp hơn, mà chỉ ra những mô-đun bắt buộc nếu bạn muốn một assistant làm việc như một agent trong sản phẩm.
Điều tôi đánh giá cao ở AIA là cách nó nhấn vào ranh giới tự trị. Thực tế, nhiều hệ không thất bại vì mô hình kém, mà vì cho phép agent tự quyết quá sâu ở những chỗ rủi ro. AIA phân biệt planning có/không có feedback như một cơ chế điều khiển: không feedback thì tự trị cao, nhưng dễ trượt; có feedback thì giống “quy trình làm việc” có giám sát, chậm hơn nhưng đáng tin hơn. Với góc nhìn của tôi, đây là điểm mà người làm giáo dục (và cả người làm sản phẩm) nên học: năng lực của agent không chỉ nằm ở “biết làm”, mà còn ở “biết dừng” và “biết hỏi”.
Nếu đặt hai khái niệm agent cạnh nhau, tôi thường hình dung thế này: AIMA cho tôi tiêu chuẩn để nói agent “tốt” là thế nào, còn AIA cho tôi bản thiết kế để biến LLM thành một agent vận hành được. Khi tôi cần viết học thuật hoặc dạy sinh viên theo hướng nền tảng, AIMA giúp tôi đứng vững vì nó bắt tôi nói bằng cấu trúc: môi trường–tri giác–hành động–đặc tả–đánh giá. Nhưng khi tôi bước sang xây một hệ trợ giảng, một chatbot học tập, hay một công cụ hỗ trợ soạn giáo án, AIA làm tôi tỉnh ra rằng “agent program” thời LLM không thể chỉ là một hàm quyết định; nó là cả một pipeline có memory, tool layer, và cơ chế feedback để giảm sai và giảm ảo giác.
Và cuối cùng, cách tôi tự hòa giải hai thế giới này là: dùng AIMA (Artificial Intelligence: A Modern Approach) như cái “la bàn” — luôn hỏi performance measure là gì, rationality đang được hiểu ra sao, và hệ có nguy cơ tối ưu sai không. Còn dùng AIA (AI Agents in Action) như “bản vẽ thi công” — persona viết thế nào, memory lấy từ đâu, tool có kiểm duyệt không, planning có feedback ở những điểm nào. Với tôi, đó là cách nói về agent vừa có nền tảng, vừa có sức nặng triển khai: không bị cuốn theo trào lưu “agent” như một nhãn dán, mà coi agent là một hệ thống phải chịu trách nhiệm trước mục tiêu và hậu quả.