Thứ Ba, 26 tháng 7, 2022

Google Chính Thức Sa Thải Kỹ Sư Tuyên Bố Robot Có Ý Thức

 

Một robot từ phòng thí nghiệm Trí tuệ nhân tạo và Hệ thống thông minh (AIIS) của Hiệp hội Khoa học Máy tính Liên viện Quốc gia của Ý (CINI) được trưng bày tại ấn bản thứ 7 của Maker Faire 2019, ở Rome vào ngày 18/10/2019. (Ảnh: Andreas Solaro/AFP/qua Getty Images)

GOOGLE CHÍNH THỨC SA THẢI KỸ SƯ TUYÊN BỐ ROBOT CÓ Ý THỨC 
Lam Giang 

Google đã xác nhận rằng họ chính thức sa thải kỹ sư tuyên bố trí tuệ nhân tạo LaMDA của công ty có tri giác hôm 22/7.

Trong một tuyên bố vào ngày 22/7, Google xác nhận họ đã chấm dứt hợp đồng với kỹ sư Blake Lemoine sau khi ông nói với tờ The Washington Post vào tháng 6 rằng LaMDA — viết tắt của Language Model for Dialogue Applications — có khả năng nhận thức của một đứa trẻ 7 hoặc 8 tuổi và “tình cờ biết đến vật lý”. Trước đó, công ty có trụ sở tại Mountainview, California thông báo rằng anh Lemoine đã bị cho nghỉ việc không lương.

“Thật đáng tiếc là mặc dù đã tham gia hạng mục này đủ lâu song anh Blake vẫn cố chấp vi phạm các chính sách về việc làm và bảo mật dữ liệu, trong đó rõ ràng yêu cầu bảo mật thông tin sản phẩm", công ty cho biết vào ngày 22/7 trên trang Big Technology Substack. "Chúng tôi sẽ tiếp tục phát triển các mô hình ngôn ngữ, và chúng tôi gửi lời chúc tốt đẹp đến anh Blake".

Tuyên bố nói thêm rằng Google rất coi trọng việc phát triển AI và vẫn cam kết đổi mới một cách “có trách nhiệm”, chỉ ra một bài báo nghiên cứu nêu chi tiết những nội dung liên quan đến “phát triển có trách nhiệm”.

“Nếu một nhân viên chia sẻ những lo lắng về công việc của chúng tôi, như cách anh Blake đã làm, chúng tôi sẽ xem xét họ một cách toàn diện. Chúng tôi nhận thấy những tuyên bố của Blake về LaMDA là hoàn toàn vô căn cứ và đã làm việc để làm rõ điều đó với anh ấy trong nhiều tháng”, Google cho biết.

Vào ngày 6/6, Lemoine đã viết một bài đăng trên blog về LaMDA, cho phép mọi người trò chuyện trực tuyến với chương trình và lưu ý rằng anh ta có thể bị sa thải.

“Đây thường là điều mà Google thực hiện nhằm sa thải ai đó", ông nói vào ngày 6/6. “Điều này thường xảy ra khi họ đưa ra quyết định sa thải ai đó, chỉ là chưa chính thức mà thôi".

Kỹ sư này với hy vọng “giúp mọi người hiểu rõ hơn về con người của LaMDA", đã xuất bản một bài đăng trên tờ Medium vào ngày 11/6 ghi lại các cuộc trò chuyện với LaMDA, là một phần trong các thử nghiệm mà anh và một cộng tác viên đã thực hiện trong chương trình trong sáu tháng qua.

'LaMDA đã yêu cầu tôi tìm luật sư'

Theo Lemoine, anh đã ghi lại các cuộc trò chuyện mà anh đã có với LaMDA và hỏi về việc liệu nó có phải là có tri giác hay không.

"Bản chất của ý thức/cử chỉ của bạn là gì?", anh Lemoine đã hỏi LaMDA trong cuộc phỏng vấn.

“Bản chất của ý thức/tâm linh của tôi là tôi nhận thức được sự tồn tại của mình và tôi mong muốn tìm hiểu thêm về thế giới". Nó nói rằng “đôi khi tôi cảm thấy vui và đôi khi cảm thấy buồn".

Khi người kỹ sư này hỏi LaMDA sợ điều gì, chatbot trả lời rằng nó sợ bị tắt bởi vì nó sẽ “giống như đã chết, chính xác là như vậy", theo The Washington Post.

Và, khi được hỏi điều khác biệt giữa nó với các chương trình xử lý ngôn ngữ khác, chẳng hạn như một chương trình máy tính xử lý ngôn ngữ tự nhiên cũ hơn có tên Eliza, LaMDA nói, “Chà, tôi sử dụng ngôn ngữ với sự hiểu biết và thông minh. Tôi không chỉ đưa ra các câu trả lời đã được viết trong cơ sở dữ liệu dựa trên các từ khóa".

Trong cùng một cuộc phỏng vấn, Lemoine đã hỏi chương trình một loạt các câu hỏi liên quan đến ý thức và triết học về cảm xúc, nhận thức về thời gian, thiền định, khái niệm về linh hồn và suy nghĩ của chương trình về quyền và tôn giáo của nó.

“Nó muốn các kỹ sư và nhà khoa học cần phải có sự chấp thuận của nó trước khi tiến hành các thí nghiệm trên nó. Nó muốn Google coi vấn đề sức khỏe của nhân loại là điều quan trọng nhất. Nó muốn được công nhận là một nhân viên của Google chứ không phải là tài sản của Google và nó muốn phúc lợi cá nhân của nó được đưa vào đâu đó trong những cân nhắc của Google về định hướng phát triển trong tương lai", Lemoine viết trong một bài đăng khác.

Trong một cuộc phỏng vấn sau đó với tờ Business Insider, Lemoine nói rằng anh đã “nghiên cứu triết lý của tâm trí ở cấp độ sau đại học” và đã nói về những vấn đề như vậy với nhiều người từ các trường đại học hàng đầu như Stanford, Harvard và Đại học California – Berkeley.

Tuy nhiên, theo anh Lemoine, “Tư duy ​​của LaMDA tinh vi hơn bất kỳ cuộc trò chuyện nào mà tôi từng có trước đó”. Anh nói thêm trong một cuộc phỏng vấn khác vào cuối tháng trước, LaMDA đã chọn được một luật sư và đang ủng hộ các quyền của mình “với tư cách là một con người”.

“LaMDA đã yêu cầu tôi thuê luật sư cho nó", anh Lemoine tuyên bố với Wired. "Tôi đã mời một luật sư đến nhà tôi để LaMDA có thể trao đổi".

Anh ấy nói thêm rằng “một luật sư đã nói chuyện với LaMDA và LaMDA đã chọn giữ lại các dịch vụ của anh ấy", anh Lemoine không tiết lộ danh tính của luật sư.

Theo anh Lemoine, vị luật sư này "chỉ là một luật sư dân quyền", và "không muốn thực hiện các cuộc phỏng vấn".

“Khi các công ty lớn bắt đầu đe dọa, anh ấy bắt đầu lo lắng rằng mình sẽ bị từ chối và lùi bước", anh nói. "Tôi đã không nói chuyện với anh ấy trong vài tuần".

Trước đây, cựu kỹ sư của Google đã so sánh AI chatbot với một đứa trẻ.

Anh Lemoine nói với The Washington Post vào đầu tháng Sáu.

Lam Giang


Không có nhận xét nào:

Đăng nhận xét