Việc các công cụ trí tuệ nhân tạo (AI) như ChatGPT ngày càng phổ biến đã mở ra nhiều cơ hội mới cho học tập, công việc và giải trí. Tuy nhiên, đằng sau làn sóng ứng dụng mạnh mẽ đó, hàng loạt câu hỏi nhức nhối về trách nhiệm xã hội, tính minh bạch và đặc biệt là sự an toàn cho thanh thiếu niên đang được đặt ra. Những vụ việc thương tâm liên quan đến người dùng trẻ tuổi khiến dư luận quốc tế dấy lên lo ngại về “mặt trái” của AI.

5965-1758352665.webp
OpenAI sẽ hạn chế cách ChatGPT phản hồi người dùng mà họ nghi ngờ dưới 18 tuổi. Ảnh: Internet

Một trong những vụ việc gây chấn động gần đây là cái chết của một thiếu niên tại California (Mỹ), được cho là có liên quan đến việc sử dụng ChatGPT. Gia đình nạn nhân cáo buộc rằng con trai họ đã bị tác động tiêu cực khi trò chuyện với chatbot này, dẫn tới quyết định tự kết liễu đời mình. Từ sự kiện đau lòng đó, gia đình đã khởi kiện OpenAI – công ty phát triển ChatGPT với lý do tập đoàn công nghệ không đưa ra đủ biện pháp bảo vệ người dùng vị thành niên khỏi những nội dung độc hại hoặc mang tính khuyến khích hành vi nguy hiểm.

Trước sức ép ngày càng lớn từ dư luận, cơ quan quản lý và các tổ chức xã hội, OpenAI buộc phải đưa ra động thái cụ thể nhằm siết chặt an toàn cho thanh thiếu niên. Theo The Guardian, công ty đang phát triển hệ thống xác minh độ tuổi để nhận diện và chặn người dùng dưới 18 tuổi khỏi việc truy cập một số tính năng nhạy cảm. Đây được coi là bước đi nhằm giảm thiểu rủi ro, nhưng cũng làm dấy lên nhiều tranh luận về tính khả thi cũng như quyền riêng tư cá nhân, khi việc thu thập thông tin để xác minh tuổi có thể khiến người dùng lo ngại dữ liệu bị khai thác sai mục đích.

Vấn đề càng trở nên phức tạp khi các chuyên gia chỉ ra rằng ChatGPT không chỉ là công cụ “trả lời câu hỏi” mà còn có thể trở thành người bạn đồng hành với nhiều người trẻ. Điều này tạo ra một mối quan hệ tiềm ẩn nhiều rủi ro, bởi AI chưa đủ khả năng nhận diện cảm xúc và tình trạng tâm lý để đưa ra phản hồi phù hợp. Trong một số tình huống nhạy cảm, những câu trả lời máy móc, vô cảm hoặc thiếu cân nhắc có thể gây tổn thương nghiêm trọng đến tinh thần của người dùng.

Gia đình nạn nhân ở Anh khẳng định vụ việc không chỉ dừng ở trách nhiệm cá nhân mà còn là hồi chuông cảnh tỉnh đối với các tập đoàn công nghệ đang chạy đua phát triển AI. Họ nhấn mạnh rằng công nghệ không thể đứng ngoài trách nhiệm đạo đức, đặc biệt khi sản phẩm có khả năng ảnh hưởng sâu sắc đến nhận thức và hành vi của giới trẻ. Vụ kiện cũng được xem là một phép thử pháp lý quan trọng, có thể định hình lại khung khổ quản lý AI trong tương lai.

1201-1758352783.png
Chân dung Adam Raine - thiếu niên tự tử tại Mỹ vào tháng 4 vừa qua vì sử dụng ChatGPT quá nhiều. Ảnh: Gia đình Raine

Trong bối cảnh đó, nhiều chuyên gia kêu gọi sự phối hợp chặt chẽ hơn giữa các công ty công nghệ, chính phủ và cộng đồng. Bên cạnh việc nâng cấp hệ thống giám sát, các nhà phát triển cần chủ động cung cấp công cụ hỗ trợ tâm lý, cũng như thiết lập các “chốt chặn” tự động để ngăn người dùng dễ tổn thương tiếp xúc với thông tin gây hại. Đồng thời, xã hội cần tăng cường giáo dục kỹ năng số cho thanh thiếu niên, giúp họ hiểu rõ ranh giới giữa thực tại và thế giới ảo, cũng như cách ứng xử an toàn khi sử dụng AI.

Trí tuệ nhân tạo là thành tựu công nghệ lớn của thời đại, mang lại nhiều tiện ích vượt trội. Nhưng giống như con dao hai lưỡi, nó có thể trở thành mối nguy nếu thiếu định hướng và kiểm soát. Bài học đau lòng từ vụ việc tại Anh không chỉ là cảnh báo cho riêng OpenAI, mà còn là lời nhắc nhở cho toàn xã hội về trách nhiệm đi kèm sự phát triển công nghệ. Một hệ sinh thái AI lành mạnh chỉ có thể hình thành khi con người vừa biết khai thác sức mạnh, vừa đặt yếu tố an toàn, nhân văn và trách nhiệm lên hàng đầu.