"Cách đây rất lâu, tôi đã từng mong muốn trở thành một diễn viên hài độc thoại, dành nhiều thời gian hơn cho công việc và gặp gỡ bạn bè. Tôi đã từng xem biểu diễn tại Yuk Yuk’s - một câu lạc bộ tại Toronto và cực kỳ yêu mến những vở hài ngụ ngôn đầy bất ngờ của họ.
Tôi thích cách họ gợi lên trong tôi những hình ảnh của các ngôi sao hay các nhà chính trị gia nổi tiếng chỉ bằng cách giả giọng nói của họ. Nhưng khi nói đến trường phái ấn tượng, tôi lại thấy mâu thuẫn.
Đừng làm AI bắt chước tôi nữa!
Đó là một trong những thách thức mà chúng ta phải đối mặt với Xử lý ngôn ngữ tự nhiên (NLP), hay những thuật toán được học từ cách xem các mẫu để dự đoán từ nào sẽ xuất hiện tiếp theo và tạo ra bản sao tổng hợp.
Mục đích cuối là cho ra ngôn ngữ tự nhiên (NLG) gần với con người nhất.
Hiện tại NLG được xem như là ‘kẻ bắt chước’ đại tài của thế giới kỹ thuật số và ngày càng hoàn thiện.
AI không thể phân biệt được đúng sai
Rõ ràng thì AI có vấn đề với sự thật. Nếu để ý, bạn sẽ thấy những kẻ bắt chước giỏi sẽ càng thuyết phục được người nghe điều họ đang nói là đúng và đáng tin; điều đó thật sự là thảm họa nếu nó được lan truyền rộng rãi trên Internet.
Trang tin tức The Guardian đã đăng một bài viết có tựa đề: “Robot đã có thể viết được cả một bài báo, đã đến lúc con người cần dè chừng ?”. Bài viết này được viết bởi GPT-3, trình tạo ngôn ngữ của OpenAI.
GPT (viết tắt của Generative Pre-training Transformer) là một mô hình tạo văn bản AI được phát triển tại OpenAI của Elon Musk.
Năm 2018, GPT chính thức được ra mắt, nó sử dụng một mô hình ngôn ngữ tổng quát bao gồm hai mạng thần kinh tự cạnh tranh để hoàn thiện lẫn nhau. Chỉ dựa trên dữ liệu đầu vào hạn hẹp, GPT có thể tạo ra những đoạn văn bản hoàn chỉnh.
Khi bạn đưa vào GPT-3 bất cứ tham số rời rạc nào bạn cũng sẽ nhận về một văn bản hoàn thiện, phù hợp nhất với những gì bạn đưa ra. Bạn có thể lập trình cho GPT-3 bằng cách nhập vào một số ví dụ về những gì bạn muốn và nó sẽ trả lại cho bạn một bài viết hoặc một câu chuyện hoàn chỉnh.
GPT-3 có thể tạo ra các tin tức mà chúng ta không thể phân biệt được là do con người viết hay máy móc tạo ra. Đây cũng chính là điều mà OpenAI luôn lo ngại.
Viết câu chuyện về GPT-3
Ngay từ đầu, OpenAI phát hành GPT-3 đã không được xây dựng để lọc sự thật, họ nói rằng nó đã được ‘huấn luyện’ với hàng tỷ từ đọc được trên Internet. Kết quả là những bản sao ấn tượng mà nó đã tạo ra, nhưng hiện tại nó vẫn không thể phân biệt được thật hay giả, hay gặp rắc rối với thiên kiến và ngôn ngữ độc hại.
Bên cạnh nguy cơ bị lợi dụng cho mục đích xấu, GPT-3 cũng khiến nhiều người lo sợ khi nó có thể lấy mất việc làm của nhiều người, đặc biệt là người viết kịch bản, các biên tập viên báo chí, nhân viên dịch thuật...
Nếu tiếp tục phát triển theo đà này, ngày mà AI cướp mất việc làm của chúng ta sẽ không còn xa nữa."
Bản dịch bởi Văn Phát - Trends Vietnam