0
Chưa có sản phẩm trong giỏ!
0
Chưa có sản phẩm trong giỏ!

Nghiên cứu mới: AI thông minh nhưng không đến mức đe dọa con người

Nghiên cứu mới của các nhà khoa học máy tính tại Đức và Anh chỉ ra rằng AI tuy thông minh nhưng không có khả năng tiếp thu các kỹ năng mới nếu không được hướng dẫn.

 

Nhiều người lo ngại AI sẽ thông minh đến mức nguy hiểm - Ảnh minh họa: cresinsurance.com

Nhiều người lo ngại AI sẽ thông minh đến mức nguy hiểm - Ảnh minh họa: cresinsurance.com

 

Với sự phát triển ngày càng tinh vi của các mô hình ngôn ngữ lớn (LLM), chẳng hạn như ChatGPT, câu hỏi về những mối nguy hiểm mà trí tuệ nhân tạo (AI) có thể gây ra cho con người đang trở nên cấp thiết hơn bao giờ hết.

May mắn là nghiên cứu mới do các nhà khoa học máy tính Iryna Gurevych từ ĐH Công nghệ Darmstadt (Đức) và Harish Tayyar Madabushi từ ĐH Bath (Anh) dẫn đầu cho thấy các mô hình AI này không có khả năng trở nên "gian xảo".

Theo nhóm nghiên cứu, nhiều người lo ngại rằng khi các mô hình ngày càng lớn hơn, chúng sẽ có khả năng giải quyết những vấn đề mới mà hiện tại chúng ta không thể dự đoán được. Họ lo chúng sẽ có được những khả năng nguy hiểm như lập luận hay lập kế hoạch.

"Nghiên cứu của chúng tôi cho thấy nỗi sợ về việc mô hình sẽ làm gì đó bất ngờ, đột phá và có khả năng nguy hiểm là không có cơ sở", ông Tayyar Madabushi nhấn mạnh.

Các quan sát cho thấy khi LLM mở rộng quy mô, chúng trở nên mạnh hơn và có thể thực hiện nhiều nhiệm vụ hơn. Không rõ liệu việc mở rộng quy mô này có liên quan đến rủi ro về hành vi của LLM mà con người chưa chuẩn bị để giải quyết hay không.

Do đó, nhóm nghiên cứu tiến hành một cuộc điều tra để xem liệu các mô hình có những hành vi vượt ngoài mong đợi hay chỉ đơn giản là chúng đang hoạt động theo những cách phức tạp trong ranh giới mã (code) của chúng.

 

Các mô hình ngôn ngữ lớn (LLM) có thể thực hiện nhiều nhiệm vụ - Ảnh: OCTACOMM

Các mô hình ngôn ngữ lớn (LLM) có thể thực hiện nhiều nhiệm vụ - Ảnh: OCTACOMM

 

Nhóm đã thử nghiệm với 4 mô hình LLM khác nhau và không tìm thấy bằng chứng nào cho thấy sự phát triển của tư duy khác biệt hay khả năng chạy ngoài chương trình của chúng. Do đó, nhóm kết luận AI không phải là mối đe dọa, song con người thì lại ít đáng tin cậy hơn.

Thực tế các mô hình này bị giới hạn khá nhiều bởi các chương trình lập trình nên chúng, không có khả năng tiếp thu các kỹ năng mới nếu không được hướng dẫn, và do đó vẫn nằm trong tầm kiểm soát của con người.

Điều này có nghĩa là con người vẫn có khả năng dùng chúng cho các mục đích xấu, song bản thân LLM vẫn an toàn để phát triển mà không cần lo lắng, theo trang ScienceAlert ngày 21-8.

Theo nhóm, nghiên cứu trong tương lai nên tập trung vào những rủi ro khác từ LLM, chẳng hạn như khả năng chúng được dùng để tạo ra tin tức giả.

Nghiên cứu được công bố trong báo cáo của Hội nghị thường niên lần thứ 62 của Hiệp hội Ngôn ngữ học máy tính.

 

Theo Anh Thư

Nguồn: Báo Tuổi Trẻ Online

Bài viết cùng danh mục:

Apple dự định đầu tư vào OpenAI
Apple dự định đầu tư vào OpenAI
31.08.2024

Sau khi công bố hợp tác đưa ChatGPT lên iOS...

Lý giải cho thành công của Black Myth: Wukong - Tỏa sáng từ
Lý giải cho thành công của Black Myth: Wukong - Tỏa sáng từ "trong trứng"?
30.08.2024

Black Myth: Wukong vẫn đang là cái tên có sức...

Sếp Meta nói về phát triển AI có trách nhiệm
Sếp Meta nói về phát triển AI có trách nhiệm
29.08.2024

Tiến sĩ Rafael Frankel chia sẻ định hướng phát triển...

Đã có thể chuyển nhạc từ Apple Music sang YouTube Music
Đã có thể chuyển nhạc từ Apple Music sang YouTube Music
27.08.2024

Apple giúp người dùng chuyển danh sách phát nhạc sang...

Tags

FPT
AI
iOS
NUC
AWS
5G
RAR
ROG
HP
VNG
MSI
LG
AKA
GPU
TV
IoT
2G
X
BYD
NCP
×
×
Bạn vừa thêm Giầy cao gót Valentino 07 vào giỏ
Hiện đang có 3 sản phẩm trong giỏ hàng
SẢN PHẨM ĐƠN GIÁ SỐ LƯỢNG THÀNH TIỀN
Giầy cao gót Valentino 07 36 12000000
36000000

Thêm vào giỏ hàng thành công!

Xem giỏ hàng

Product name

100000đ
Xem giỏ hàng