Lịch sử ngành trí tuệ nhân tạo

  • DỰ NGUYỄN
  • Tháng 10 2018

Đa số trọng tâm của các nghiên cứu trí tuệ nhân tạo ban đầu được lấy từ cách tiếp cận bằng thực nghiệm của tâm lý học, và xem trọng cái gọi là "trí tuệ ngôn ngữ" - việc hiểu biết ngôn ngữ con người (xem Thử nghiệm Turing, Turing test).

Các hướng nghiên cứu về trí thông minh nhân tạo không liên quan đến ngôn ngữ bao gồm ngành robotic và ngành thông minh tập thể (colective intelligence). Hai hướng tiếp cận này tập trung vào việc chủ động tác động lên môi trường hoặc việc đưa ra quyết định bằng đồng thuận về một vấn đề nào đó. Các hướng nghiên cứu này có nguồn gốc từ các mô hình thông minh xuất phát từ sinh học và chính trị học.

Lý thuyết trí tuệ nhân tạo còn được rút ra từ các nghiên cứu về động vật, đặc biệt là côn trùng, do có thể dễ dàng được mô phỏng con trùng bằng robot (xem thêm sự sống nhân tạo (artificial life)) cũng như các động vật với nhận thức phức tạp hơn, ví dụ như loài khỉ, chúng có thể bắt chước con người trong nhiều trường hợp nhưng lại hạn chế về sự phát triển trong việc lập kế hoạch và nhận thức. Các nhà nghiên cứu về trí tuệ nhân tạo đưa ra kết luận rằng những loài động vật, có nhận thức đơn giản hơn con người, đáng ra có thể dễ dàng mô phỏng được. Tuy nhiên, đến giờ vẫn chưa có mô hình tính toán đủ tốt mô phỏng trí thông minh của động vật.

Có những bài báo đưa ra khái niệm trí thông minh của máy (machine intelligence) như bài A Logical Calculus of the Ideas Immanent in Nervous Activity (Tính toán logic của các ý tưởng nội tại trong hoạt động thần kinh) (1943), do Warren McCulloch và Walter Pitts viết; On Computing Machinery and Intelligence (Về bộ máy tính toán và trí thông minh) (1950), được viết bởi Alan Turing; và Man-Computer Symbiosis viết bởi J.C.R. Licklider. Xem thêm phần điều khiển học (cybernetics) và Thử thách Turing.

Với sự phát triển của các kỹ thuật thực hành dựa trên các nghiên cứu về trí tuệ nhân tạo, những người ủng hộ ngành trí tuệ nhân tạo đã cho rằng phe chống đối ngành này đã liên tục thay đổi lập trường của họ trong các vấn đề như máy tính chơi cờ hay nhận dạng tiếng nói, mà trước đây chúng đã từng được coi là thông minh, để phủ nhận các thành tựu của ngành trí tuệ nhân tạo. Bởi vậy, Douglas Hofstadter, trong cuốn Gödel, Escher, Bach, đã chỉ ra rằng chính sự chuyển dịch đó đã định nghĩa trí thông minh là bất cứ việc gì mà con người làm được còn máy móc thì không.

John von Neumann (trích dẫn trong E.T. Jaynes) đã thấy trước được điều này vào năm 1948 khi trả lời một lời bình luận tại một buổi diễn thuyết cho rằng may móc không thể suy nghĩ: "Bạn nhất quyết rằng có một điều gì đó mà máy móc không thể làm được. Nếu bạn nói cho tôi một cách chính xác đó là điều gì, thì tôi sẽ luôn luôn làm được một cái máy mà sẽ chỉ thực hiện được điều đó!". Von Neumann được cho là đã có ý nói đến luận đề Church-Turing khi khẳng định rằng bất kì một thủ tục có hiệu lực nào cũng có thể được mô phỏng bởi một máy tính (tổng quát) nào đó.

Vào năm 1969 McCarthy và Hayes đã bắt đầu thảo luận về bài toán khung (frame problem) với bài luận của họ, Some Philosophical Problems from the Standpoint of Artificial Intelligence (Một số vấn đề triết học từ điểm khởi đầu của trí tuệ nhân tạo).

Nghiên cứu trí tuệ nhân tạo thực nghiệm

Trí tuệ nhân tạo đã được bắt đầu nghiên cứu từ thập niên 1950 bởi những nhà tiên phong như Allen Newell và Herbert Simon, người sáng lập phòng thí nghiệm trí tuệ nhân tạo đầu tiên ở Đại học Carnegie Mellon, và John McCarthy và Marvin Minsky, người sáng lập phòng thí nghiệm trí tuệ nhân tạo tại MIT, MIT AI Lab, năm 1959. Họ đã cùng dự hội thảo về trí tuệ nhân tạo tại Đại học Dartmouth vào mùa hè năm 1956, do McCarthy, Minsky, Nathan Rochester của IBM và Claude Shannon tổ chức.

Vào thời điểm đó, nghiên cứu trí tuệ nhân tạo gồm hai trường phái chính "ngăn nắp" và "bê bối". Trường phái trí tuệ nhân tạo "ngăn nắp" cổ điển hay biểu tượng thường sử dụng các biểu tượng và khái niệm phức tạp. Song song với nó là trường phái "bê bối" (scruffy hay connectionist). Ví dụ điển hình nhất của cách tiếp cận này là mạng thần kinh nhân tạo. Nó "tiến hóa" sự thông minh qua việc xây dựng và hoàn thiện hệ thống bằng một quá trình tự động thay cho việc thiết kế cách thi hành nhiệm vụ một cách có hệ thống. Cả hai cách tiếp cận này đều xuất hiện sớm trong lịch sử trí tuệ nhân tạo. Trong thập niên 1960 và 1970, trường phái "bê bối" suy tàn, nhưng sau này đã được khôi phục vào thập niên 1980 khi những hạn chế của trường phái "ngăn nắp" bắt đầu xuất hiện. Dù vậy, những phương pháp hiện nay dùng cả hai cách tiếp cận này đều có những hạn chế nghiêm trọng.

Nghiên cứu trí tuệ nhân tạo rất được chú trọng về kinh phí vào thập niên 1980 bởi Cơ quan các dự án nghiên cứu phòng vệ tiên tiến (Defense Advanced Research Projects Agency) của Mỹ và dự án máy tính thế hệ thứ năm ở Nhật. Các nghiên cứu được cấp kinh phí thời đó đã không thể cho ra kết quả tức thời. Do đó, bất chấp những dự tính quy mô của những nhà tiên phong, ngân sách chính phủ dành cho nghiên cứu đã bị cắt giảm mạnh vào cuối thập niên 1980, dẫn đến sự ngưng trệ trong nghiên cứu và tạo ra "mùa đông của trí tuệ nhân tạo". Trong thập niên tiếp theo, nhiều nhà nghiên cứu trí tuệ nhân tạo đã chuyển sang nghiên cứu những lĩnh vực tương tự như học máy, robot học (robotics) và computer vision, nghiên cứu về trí tuệ nhân tạo thuần túy chỉ còn ở mức độ thấp.

AI hiện đại

Việc nghiên cứu TTNT hiện đại chú trọng vào các nhiệm vụ thiên về kỹ thuật thực tế (Những người ủng hộ chiều hướng Trí tuệ nhân tạo mạnh có lẽ sẽ gọi nó là "Trí tuệ nhân tạo yếu".)

Có một vài lĩnh vực của AI, một trong số đó là ngôn ngữ tự nhiên. Rất nhiều lĩnh vực thuộc "Trí tuệ nhân tạo yếu" có phần mềm hoặc những ngôn ngữ lập trình chuyên dụng được tạo riêng cho chúng. Ví dụ, một trong những chatterbot (ngôn ngữ tự nhiên gần ngôn ngữ con người nhất) là A.L.I.C.E., nó sử dụng một ngôn ngữ lập trình với tên gọi AIML để đặc tả các chương trình, và có một bản khác với tên gọi Alicebot. Tuy nhiên, A.L.I.C.E thực tế là vẫn dựa trên kỹ thuật đối sánh mẫu và chưa có bất cứ sự suy luận nào. Kỹ thuật này tương tự như kỹ thuật Eliza, một chatterbot đầu tiên, được sử dụng vào cuối năm 1966. Jabberwacky có một chút gần gũi với "Trí tuệ nhân tạo mạnh", khi nó học cách làm thế nào để cải thiện dần từ cơ bản lên mà chỉ dựa trên tương tác của người dùng. Mặc dù thế, kết quả có được thực tế là vẫn rất hạn chế, và có thể hợp lý mà nói rằng thực sự không có một trí tuệ nhân tạo nào mà có thể dùng cho đa mục đích được.

Khi được xem xét với một độ hoài nghi vừa phải, TTNT có thể xem là "một tập các bài toán trong khoa học máy tính mà không có lời giải tốt vào thời điểm này". Khi mà một ngành con của TTNT ứng dụng tốt cho một công việc nào đó, nó sẽ thoát ra khỏi TTNT và có tên riêng. Một vài ví dụ là nhận dạng mẫu, xử lý ảnh, mạng neuron, xử lý ngôn ngữ tự nhiên, robot học và lý thuyết trò chơi. Trong khi cội rễ của các ngành này đều được thiết lập vững chắc từ TTNT, chúng bây giờ lại được xem là một cái gì đó tách biệt.

Trong khi các nỗ lực để hướng tới một mục tiêu cuối cùng là có trí thông minh như con người càng trở nên chững lại, thì nhiều ngành con mới ra đời lại phát triển. Một vài ví dụ điển hình bao gồm các ngôn ngữ lập trình LISP và Prolog, được ra đời phục vụ cho việc nghiên cứu TTNT nhưng bây giờ lại dành cho các công việc không thuộc TTNT. Nền văn hóa của hacker ban đầu cũng xuất phát từ các phòng thí nghiệm TTNT, đặc biệt ở MIT AI Lab, ngôi nhà của nhiều ngôi sao sáng như McCarthy, Minsky, Seymour Papert (người đã phát triển Logo ở đó), Terry Winograd (người đã từ bỏ TTNT sau khi phát triển SHRDLU).

Nhiều hệ thống hữu ích khác cũng đã được xây dựng dùng các kĩ thuật mà ít nhất một lần từng được dùng cho nghiên cứu TTNT. Một vài ví dụ bao gồm:

Chinook được xem là Nhà vô địch thế giới Máy-Người trong thu tiền vào năm 1994.
Deep Blue, máy tính chơi cờ vua, đã đánh bại Garry Kasparov trong một trận đấu nổi tiếng vào năm 1997.
InfoTame, một động cơ tìm kiếm và phân tích văn bản được phát triển bởi KGB để tự động sắp xếp hàng triệu giấy tờ để có thể ngăn chặn giao tiếp khi cần thiết.


Logic mờ, một kĩ thuật đưa ra suy luận khi không chắc chắn, được dùng rộng rãi trong các hệ thống điều khiển công nghiệp.
Hệ chuyên gia vẫn đang được sử dụng ở một mức độ nào đó trong ngành công nghiệp.
Machine translation systems such as SYSTRAN are widely used, although results are not yet comparable with human translators.
Mạng neuron được dùng cho nhiều nhiệm vụ khác nhau, từ hệ thống chống xâm nhập đến trò chơi máy tính.
Các hệ thống nhận dạng ký tự quang học có thể chuyển các tài liệu viết tay bằng tiếng châu Âu bất kì sang văn bản lưu trong máy.


Nhận dạng chữ viết tay được sử dụng trong hàng triệu thiết bị PDA.
Nhận dạng tiếng nói có các sản phẩm thương mại và được sử dụng rộng rãi.
Computer algebra system, như Mathematica và Macsyma, là những điển hình.
Các hệ thống Machine vision đã được sử dụng trong nhiều ứng dụng công nghiệp từ kiểm định phần cứng (hardware verification) tới các hệ thống bảo vệ.
Các phương pháp lập kế hoạch TTNT đã được sử dụng để tự động lập phương án chuyển quân Mỹ trong Chiến tranh vùng Vịnh lần thứ nhất. Nhiệm vụ này có thể tiêu tốn thời gian tới nhiều tháng và tiền tới hàng triệu đô-la nếu làm bằng tay. Cơ quan nghiên cứu phòng vệ tiên tiến Mỹ đã tuyên bố rằng riêng lượng tiền tiết kiệm được nhờ ứng dụng này đã nhiều hơn tổng chi phí của họ cho các nghiên cứu TTNT trong vòng 30 năm qua.
AlphaGo, máy tính chơi cờ vây, đã đánh bại Lee Sedol vào tháng 5 năm 2016.
Viễn cảnh của TTNT thay thế sự tác động của con người đã có nhu cầu từ rất lâu trước đây, và ngày nay trong một số lĩnh vực chuyên biệt nơi mà các "hệ chuyên gia" được sử dụng hằng ngày để làm tăng thêm hay thay thế các quyết định của con người trong một số lĩnh vực kĩ thuật và y khoa. Một ví dụ về hệ chuyên gia là Clippy, cái kẹp giấy trong Microsoft Office. Nó cố gắng dự đoán những lời khuyên mà người dùng mong muốn.

Trí tuệ nhân tạo thế giới nhỏ

Thế giới thực đầy rẫy các chi tiết khó hiểu và làm mất tập trung: thông thường, khoa học phát triển bằng cách tập trung vào các mô hình nhân tạo đơn giản về thực tế (ví dụ, trong vật lý, các mặt phẳng không có ma sát và các vật thể hoàn toàn cố định). Năm 1970, Marvin Minsky và Seymour Papert, phòng thí nghiệm trí tuệ nhân tạo tại MIT, đề nghị rằng nghiên cứu trí tuệ nhân tạo cần tập trung vào việc phát triển các chương trình có khả năng thể hiện các hành vi thông minh trong các tình huống nhân tạo đơn giản được gọi là các thế giới nhỏ. Nhiều nghiên cứu đã tập trung vào cái gọi là thế giới khối, bao gồm các khối có màu sắc và các hình dạng kích thước khác nhau đặt trên một mặt phẳng.

TIN LIÊN QUAN

Sự sống nhân tạo

  • DỰ NGUYỄN

Sự sống nhân tạo một khái niệm còn khá mới mẻ, so với trí tuệ nhân tạo dường như ít được sự quan tâm của giới khoa học chưa có một định nghĩa rõ ràng để miêu tả đầy đủ khái niệm này. Ranh giới giữa trí tuệ nhân tạo và sự sống nhân tạo rất khó xác định. Được hiểu là một khái niệm liên quan giữa khoa học máy tính và sinh học. Liên ngành này được đặt tên bởi Christopher Langton, một nhà khoa học máy tính người Mỹ năm 1986. Có ba loại sự sống nhân tạo chính,[3] được đặt tên theo cách tiếp cận: mềm, từ phần mềm; cứng, từ phần cứng máy tính; và ướt, trong hóa sinh. Sự sống nhân tạo bắt chước sinh học truyền thống bằng cách cố gắng "tạo ra" một số khía cạnh nào đó của các hiện tượng sinh học. Thuật ngữ "trí tuệ nhân tạo" thỉnh thoảng cũng được xem là sự sống mềm.

 

Lịch sử

Một thành tựu lớn gần đây của giới khoa học Craig Venter và các cộng sự của ông tổng hợp nhiễm sắc thể nhân tạo từ hóa chất trong phòng thí nghiệm chứa 318 gen và 580.000 cặp liên kết đôi. Nó được cấy vào để kiểm soát tế bào vi khuẩn sống, hình thành thực thể sống nhân tạo đầu tiên trên thế giới. Như vậy, tế bào này không hoàn toàn nhân tạo mà có một phần sự sống tự nhiên, và có khả năng nhân bản.

Phản ứng

Giới chuyên môn đánh giá thành tựu này không khác nào "con dao hai lưỡi", một mặt có thể giúp ích cho con người trong việc phát triển các loại thuốc mới chữa nhiều bệnh hiểm nghèo như tiểu đường, ung thư, các bệnh thần kinh..., nhưng mặt khác cũng có thể trở thành "cơn ác mộng tồi tệ nhất đối với nhân loại" một khi bị dùng vào mục đích xấu như phát triển vũ khí sinh học. Mặc dù vậy, thành tựu mới của Tiến sĩ Venter vẫn được công nhận là bước ngoặt lớn trong lịch sử nghiên cứu khoa học. Trong một tương lai xa khi khoa học máy tính mô phỏng các hệ thống sống phức tạp sau đó xuất hiện sự sống nhân tạo cùng với đó cho ra đời các rô bốt thông minh suy nghĩ giống con người. Điều đó có thực sự xảy ra hay không. Còn quá nhiều câu hỏi cần lời giải đáp.

Digital organisms

  • DỰ NGUYỄN

Digital organisms là một chương trình máy tính có thể mô phỏng sự đột biến, nhân bản và cạnh tranh. Tạm gọi là những "cá thể số". Chương trình này được sử dụng trong những thí nghiệm trên máy tính với mục đích chứng minh phát biểu của Darwin về những đặc tính phức tạp của cơ thể sống: những đặc tính phức tạp của cơ thể sống được tạo nên từ những đặc tính đơn giản hơn.

Digital organisms là một chương trình máy tính có thể mô phỏng sự đột biến, nhân bản và cạnh tranh. Tạm gọi là những "cá thể số". Chương trình này được sử dụng trong những thí nghiệm trên máy tính với mục đích chứng minh phát biểu của Darwin về những đặc tính phức tạp của cơ thể sống: những đặc tính phức tạp của cơ thể sống được tạo nên từ những đặc tính đơn giản hơn.

Để có thể sử dụng chương trình này trên máy tính, cần một chương trình nền tạo môi trường, chương trình nền được biết đến nhiều nhất là chương trình Avida. Trong môi trường Avida tạo nên, các "cá thể số" sẽ cạnh tranh nhau để có năng lượng bằng cách đạt được những hàm logic.
Chạy chương trình Digital Organisms trên Avida
"Cá thể số" thể hiện một gen thông qua một vòng lặp sử dụng bộ 26 lệnh [1]. Vòng lặp thực hiện liên tiếp cho tới khi bắt gặp điều kiện để thực hiện lệnh Jump. Mỗi bước lặp thể hiện cho một lần sinh sản vô tính. Mỗi lần sinh sản thành công thể hiện cho việc phát sinh đột biến thông qua các đoạn mã lỗi được sao chép từ gen chủ thể.

Chạy chương trình theo mô hình gen:

Các thanh ghi sử dụng là những thanh ghi 32 bit. Đầu vào: X và Y là các chuỗi 32 bit.

Thực hiện phép toán NAND trên 2 chuỗi trong thanh ghi bx và cx, đưa kết quả vào ax.


Phép toán logic:


So sánh các bit tương ứng trên X và Y.
Kết quả logic thu được là 1 nếu bit tương ứng trên X giống bit tương ứng trên Y, và sẽ thu được kết quả là 0 trong trường hợp còn lại.
So sánh ax với kết quả logic, nếu giống nhau tức là đời gen này có thể sinh ra hàm EQU.
Avida
Avida là chương trình nền để chạy chương trình "cá thể số". Chương trình này giúp máy tính không bị nhầm lẫn giữa virus và những "cá thể số". Bởi virus và những "cá thể số" có chung những đặc điểm như: đột biến, nhân bản, cạnh tranh, và chỉ khác nhau ở chỗ: virus là chương trình chạy có mục đích, có hướng còn những "cá thể số" nhân bản, cạnh tranh theo một cách ngẫu nhiên.
Avida sử dụng thuật toán "time-slicing" để đảm bảo sự ảnh hưởng lên các "cá thể số" là như nhau.

Hàm logic

Có 9 hàm logic: NOT, AND, OR, NAND, OR_N, AND_N, NOR, XOR, EQU. Đời gen đầu tiên có thể tự nhân bản nhưng không tạo được hàm logic nào. Mỗi đời gen có thể sử dụng 1 hoặc nhiều hàm logic. Mỗi hàm logic có thể được sinh ra ở bất kỳ đoạn nào trong đời gen. Cũng có thể lặp lại, nhưng sẽ không nhận được thêm năng lượng.

Hàm EQU: EQU là hàm logic phức tạp nhất và là hàm logic không có sẵn trong bộ lệnh, chỉ được tạo nên từ các hàm khác trong chương trình.

Theo một trong số thí nghiệm "cá thể số" đã thực hiện:

Trong 60 lệnh thể hiện hàm EQU đầu tiên, có 35 lệnh là không thể thiếu.
Trong số 35 lệnh, có 22 lệnh thực thi các hàm logic đơn giản còn lại, 3 câu lệnh dành cho việc nhân bản. Số còn lại sử dụng cho việc duy trì đặc tính của đời trước.
Việc thiếu đi bất kỳ một lệnh nào cũng sẽ làm cho các lệnh còn lại không thể xây dựng nên hàm EQU. Có thể thấy, hàm EQU rất khó tạo nhưng dễ hỏng và khó có thể tồn tại lâu. Tuy nhiên, hàm EQU tồn tại xuyên suốt quá trình thí nghiệm, bởi rất may là những đột biến có hại đã được loại ngay từ khâu chọn lọc.

Năng lượng của Digital Organisms

Năng lượng cần thiết để các "cá thể số" thực thi một lệnh là một SIP (single instruction processing). Mỗi SIP đủ để thực thi một câu lệnh.

Các "cá thể số" có được SIP thông qua:

Nhận SIP theo tỷ lệ tương ứng với chiều dài gen.
Nhận SIP thông qua các hàm logic. (trường hợp này nhận được nhiều SIP hơn)
Sự thay đổi chiều dài kiểu gen sẽ dẫn đến sự thay đổi về SIP. Mỗi kiểu gen sẽ có một tỷ lệ nhân đôi nhất định. Chiều dài kiểu gen thay đổi theo mỗi bước đột biến.