Trích ra từ video của Gs. John Vu (12:35-25:57) tại
https://drive.google.com/file/d/1AhVDvTKGMaYKLSQe6LMVdPYyqTz0uavB/view?usp=sharing
Thuật ngữ khác mà nhiều người liên kết với trí tuệ nhân tạo có tên là học máy. Học máy là một trong nhiều thuật giải được dùng trong AI. Ngay cả ngày nay học máy nhận được nhiều sự quan tâm. Học máy thực sự là lĩnh vực liên quan tới thiết kế chương trình cho phép máy học và làm dự đoán từ mọi dữ liệu mà không có sự hỗ trợ nào đó hay được lập trình bởi người lập trình. Những thuật giải này đang được dùng trong nhiều hệ thống AI như nhận dạng mặt, gợi ý âm nhạc, lọc thư rác, và cho việc phát hiện vấn đề trong các thể chế tài chính và ngân hàng. Chúng ta sẽ nói thêm về học máy trong vài bài giảng tiếp.
Thuật ngữ khác mà nhiều người trong các bạn có lẽ đã từng nghe thấy là mạng nơ ron. Mạng nơ ron là chìa khoá để xử lí cho học máy. Và nó thực sự bao gồm nhiều tầng thuật giải. Mô hình học máy là cấu trúc theo cách nào đó giống như nơ ron trong não người. Về căn bản mạng nơ ron bao gồm vài tầng nơ ron tương tự như nơ ron não người, mà nạp dữ liệu lẫn cho nhau. Cho nên mức này phân tích dữ liệu, đi tới hình mẫu dự đoán nào đó, gửi kết quả cho mức tiếp để tiếp tục làm mịn dữ liệu và học từ mức trước. Cuối cùng chúng đi tới kết quả nào đó tốt hơn nhiều. Mạng nơ ron là tương đối mới nhưng việc làm mô hình, thiết kế và xây dựng mạng nơ ron đã tạo ra khác biệt lớn làm cho máy tốt hơn, AI tốt hơn các cách làm mô hình khác.
Về căn bản trong khi huấn luyện mạng nơ ron, cách thức nào đó, phương tiện nào đó, hệ số nào đó đã được gắn với cái vào, điều đó đã được liên tục biến thiên từ cái ra, từ cái này sang cái kia. Cuối cùng chúng sẽ đi tới những dự đoán rất tốt. Chúng ta sẽ nói nhiều hơn về mạng nơ ron rong vài bài giảng tiếp.
Có hai điều là rất quan trọng để bạn biết trong học máy. Một điều được gọi là học có giám sát. Trong học máy bạn có học có giám sát và học không giám sát. Học có giám sát là kĩ thuật để dạy các hệ thống AI bằng việc dạy chúng qua việc dùng một số lớn các ví dụ được đánh nhãn. Việc đánh nhãn các ví dụ được tiến hành bởi công nhân phần mềm. Người lập trình nhận diện dữ liệu nào đó và về căn bản đánh nhãn chúng để cho phép máy học. Về căn bản khi máy đang học bạn giám sát việc học bằng cách thay đổi dữ liệu, bằng việc làm rõ ràng, bằng việc phân loại dữ liệu cho máy học. Về căn bản một trong các kĩ thuật mà chúng ta sẽ nói nhiều thêm trong lớp nhập môn là về học có giám sát.
Một khi máy đã được học, hệ thống có thể áp dụng một nhãn cho dữ liệu mới và giải quyết bài toán. Chẳng hạn, nếu bạn huấn luyện máy để học về con chó trong bức ảnh thế thì cuối cùng máy có thể học được cách nhận diện vật nào đó bên trong bức ảnh.
Kĩ thuật khác có tên là dữ liệu không giám sát, tương phản với dữ liệu có giám sát, dữ liệu không giám sát dùng cách tiếp cận khác hoàn toàn, với thuật giải nhận diện những hình mẫu như vậy trong dữ liệu. Việc tìm sự tương tự như vậy có thể được dùng để phân loại dữ liệu của nó. Thuật giải này không được thiết lập để lấy ra bản thân kiểu dữ liệu xác định. Nhưng nó nhìn vào dữ liệu nào đó và phân loại và phân lớp thành các nhóm theo sự tương tự.
Chẳng hạn, Google News gộp nhóm mọi bài báo có chủ đề tương tự trong ngày và tạo ra tin tức cho độc giả của họ. Chúng ta sẽ nói nhiều hơn về học có giám sát và học không giám sát trong bài giảng tiếp sắp tới.
Thuật ngữ khác mà nhiều người trong các bạn có lẽ đã nghe tới khi chúng ta nhắc tới trí tuệ nhân tạo được gọi là học sâu. Học sâu là mô hình học máy nơi mạng nơ ron được mở rộng thành mạng khổng lồ với nhiều tầng. Chúng được huấn luyện bằng việc dùng số lượng dữ liệu qui mô rất lớn. Trong mạng này, mạng nơ ron nhân tạo được thu xếp theo các tầng được liên nối. Tầng đưa vào nhận dữ liệu từ thế giới bên ngoài, tầng đưa ra sẽ chỉ đạo cách hệ thống đáp ứng cho những thông tin đó. Giữa những tầng đó, một tầng nơ ron phụ thêm xử lí dữ liệu bằng việc gắn trọng số nào đó, hệ số nào đó lên thông tin chúng nhận từ các tầng đi trước. Và bằng việc đi tới đa tầng, đa phân tích, đa dự đoán, chúng sẽ đi tới cái gì đó tốt hơn nhiều, chính xác hơn ở chỗ kết thúc.
Trong mạng học sâu chúng có thể giải quyết các vấn đề phức tạp vì số lượng khổng lổ các nơ ron làm việc cùng nhau. Về căn bản đây là số lượng cực lớn đa nơ ron, đa tầng, tại mỗi một trong chúng đều nạp cái ra cho nơ ron tiếp nó. Cho nên bạn đi tới việc làm mịn tốt hơn nhiều và chính xác hơn rất nhiều và hiệu năng cao.
Nền tảng của mọi trí tuệ nhân tạo được gọi là xử lí ngôn ngữ tự nhiên. Và đây cũng là một trong những khu vực đã vừa không được động chạm đúng vừa không thu được sự phổ biến. Nhưng tôi nghĩ nó là nền tảng vì xử lí ngôn ngữ tự nhiên là cách chúng ta làm cho máy tính hiểu việc xử lí và thao tác ngôn ngữ con người. Để làm điều đó, chúng phải hiểu lượng khổng lồ thông tin từ qui tắc văn phạm tới cú pháp tới các cụm từ thông thường và giọng nói. Do đó đây cũng là thuật giải rất phức tạp, phần mềm rất phức tạp cho phép máy hiểu ngữ cảnh của ngôn ngữ mà chúng ta nói.
Chẳng hạn, trong nhận dạng tiếng nó, giọng nói con người trở thành dữ liệu âm thanh, mà được chuyển thành dữ liệu văn bản, và thế rồi có khả năng tự xử lí nó. Xử lí ngôn ngữ tự nhiên là rất quan trọng vì ngày nay có nhiều nhiều hệ thống dùng tiếng nói. Bạn có thể thấy chẳng hạn, Alexa, nhiều người trong các bạn đã từng dùng cái đó. Cái đó cũng là trí tuệ nhân tạo dùng xử lí ngôn ngữ tự nhiên. Chúng ta sẽ nói nhiều hơn về điều này trong vài bài giảng tiếp.
Chẳng hạn, bạn có thấy rằng trong trí tuệ nhân tạo trong năm 2011, nhiều người trong các bạn chắc đã thấy máy tính Watson của IBM được lên các đầu đề trên các báo khi nó thắng cuộc biểu diễn hỏi đáp Jeopardy, đánh bại người chơi giỏi nhất trong buổi biểu diễn đã từng được tạo ra. Máy tính Watson của IBM dùng xử lí ngôn ngữ tự nhiên và phân tích dữ liệu lớn trên các kho dữ liệu bao la mà nó xử lí để trả lời các câu hỏi do con người đặt ra, thường trong một phần giây. Nhiều phần mềm trong Watson được tạo ra ở Carnegie Mellony. Và tôi đã từng làm việc với Ts. Harris … về hệ thống này. Và đây là một trong những nỗ lực đầu tiên dùng AI trong xử lí ngôn ngữ tự nhiên.
Cho nên chúng ta hãy nhìn vào cách mọi người dùng AI trong cuộc sống thường ngày. Về căn bản AI đã từng hiện diện trong nhiều mặt của cuộc sống của chúng ta. Bạn đã thấy Người trợ lí thông minh như Siri, Alexa và Cortana, tất cả chúng đều dùng xử lí ngôn ngữ tự nhiên để hiểu các mệnh lệnh tiếng nói và trả lời câu hỏi của bạn, sắp đặt những nhắc nhở, tìm nhạc bạn thích, điều chỉnh bộ ổn nhiệt, kiểm soát hệ thống an ninh trong nhà v.v.
Khi bạn dùng cửa hàng trực tuyến nào đó, như Amazon hay Alibaba, họ cũng có phần mềm trí tuệ nhân tạo theo dõi mặt hàng bạn đã từng nhìn vào, chúng nhận diện điều bạn mua và dùng những thông tin này để thích ứng sản phẩm hợp vị với bạn và gợi ý bạn mua nó. Là khách hàng, điều này tiết kiệm cho bạn nhiều thời gian tìm kiếm điều bạn cần. Nhưng với công ti, với người bán hàng, nó có nghĩa là có khả năng dự đoán nhu cầu của những sản phẩm như vậy. Cho nên họ có kho vừa phải vào thời gian đúng ở chỗ đúng. Điều đó cũng có thể cải tiến thời gian giao hàng, làm tối đa cơ hội họ có khả năng bán cho bạn cái gì đó bạn cần.
Một trong những điều rất phổ biến nếu bạn mua một cuốn sách từ Amazon, một kiểu sách bạn đọc, bạn sẽ thấy rằng trong vài tuần tiếp, Amazon liên tục gợi ý các sách tương tự, “những người đã mua cuốn sách này cũng mua sách này và mua sách kia.” Về căn bản họ gợi ý cái gì đó dựa trên phần mềm riêng của họ, phần mềm thông minh biết điều ưa chuộng của bạn là gì.
Nhiều người trong các bạn đã từng dùng Uber chứ? Uber đã viết phần mềm, đây cũng là phần mềm trí tuệ nhân tạo dùng học máy để dự đoán khi nào xe bạn đặt sẽ tới và bao nhiêu xe phải có ở địa điểm nào đó vào thời gian nào đó trong ngày. Cho nên họ chắc là họ có đủ xe để cung cấp dịch vụ cho khách hàng.
Và nhiều người trong các bạn mua xe hơi mới trong vài năm qua, các bạn có lẽ thấy rằng xe có mọi loại phần mềm. Và về căn bản có chứa thị giác máy tính để cho phép bạn lái xe an toàn hơn nhiều so với xe cổ hơn, vì chúng có thể nhận diện và theo dõi lưu thông quanh xe của bạn khi bạn đang định đổi làn hay tự động nhấn phanh nếu chúng có khả năng nhận diện nguy hiểm phía trước.
Hệ thống khác đang được dùng rất phổ biến trong vài năm qua là hệ thống giám sát thẻ tín dụng. Chúng dùng phần mềm trí tuệ nhân tạo để kiểm khả năng các hoạt động lừa đảo. Chẳng hạn nếu bạn bao giờ cũng mua bán trong thành phố nơi bạn sống, và đột nhiên một giao dịch xảy ra từ chỗ khác, hoàn toàn bên ngoài. Bạn sống ở bờ tây, và nhiều giao dịch xảy ra ở bờ đông. Điều đó dựng cờ đỏ, báo động. Có thể thẻ tín dụng của bạn đã bị tổn hại, hay có thể thẻ tín dụng của bạn có thể bị mất và ai đó khác có thể dùng nó. Và hệ thống có thể tạo ra báo động cho bạn. Nhận diện hình mẫu giữa việc dùng thẻ tín dụng nào đó, ngân hàng có thể giám sát và phát hiện các hoạt động lừa đảo.
Thuật ngữ khác cũng được liên kết với trí tuệ nhân tạo là thị giác máy tính. Thị giác máy tính là nhằm giúp máy tính nhận diện và xử lí những hình ảnh nào đó theo cùng cách như con người làm. Chúng ta học phân biệt giữa các bộ mặt của những người khác nhau. Thị giác máy tính cũng dạy cho máy nhận dạng các vật thể khác nhau mà chúng có thể thấy qua camera. Bằng đa tầng hệ thống, chúng có thể nhìn vào pixel nào đó, nhận diện mầu sắc, chuyển đổi chúng thành các giá trị số, và tìm các hình mẫu nào đó mà có thể nhận diện một nhóm các pixel mầu tương tự và đường viền. Nó cũng có thể giúp nhận diện các vật thể khác nhau.
Thị giác máy tính đã từng được dùng một cách có ý nghĩa trong nhận dạng mặt người mà bạn thấy ngày nay. Chẳng hạn, vài tuần trước AI đã được dùng để nhận diện một người từ ảnh số trích ra từ video ghi lại. Hệ thống có thể được huấn luyện để chọn những tính năng mặt nào đó và ảnh cho sẵn dựa vào cơ sở dữ liệu. Về căn bản một người là tội phạm đã là một phần của một nhóm và nhà chức trách có thể có khả năng bắt họ, trong một nhóm cỡ độ 60 nghìn người, dựa trên nhận dạng mặt. Điều này là rất rất phổ biến đã được dùng trong thế giới ngày nay.
—English version—
Artificial Intelligence – Concepts: Machine learning, Neuron Network, Supervisedd Learning, Unsupervisedd Learning, Deep Learning, Natural Language Processing, Speech Recognisation, Computer Vision
Extraxt from Prof. John Vu’s video (12:35-25:57) at
https://drive.google.com/file/d/1AhVDvTKGMaYKLSQe6LMVdPYyqTz0uavB/view?usp=sharing
Another term that many people associated artificial intelligence is called machine learning. Machine learning is one of many algorithms used in AI. Even today machine learning receives a lot of attentions. Machine learning is really a field concerning with designing a program that allow the machine to learn and to make a prediction from all these data without a certain assistance or being programmed by programmers. These algorithms are being used in many AI systems such as face recognition, music recommendations, spam filtering, and for detection in finance and banking institutes. We will talk more about machine learning in a next couple lectures.
Another term that many of you probably have been heard is neuron network. A neuron network is a key to process machine learning. And it is really consist of several layers of algorithms. A machine learning model is a structure in a way that resembles the neuron in a human brain. Basically a neuron network consists of several layers of neurons similar to the human brain neuron, that feeds data to each other. So one level analyses data, comes up with some predict patterns, sends the result to the next level to continue to refine the data and learning from these from previous one. Eventually they come up with some much better results. The neuron network is relative new but the modelling, the designing and the construction of neuron network were made the big difference of a better machine, better AI than the others.
Basically during the training of a neuron network that certain way, certain mean, certain factor have been attached to the input, that was continued to vary from the output, from the other one. Eventually they will come to some very good predictions. We will talk more about neuron network in the next couple lectures.
There are two things that are very important for you to know in machine learning. One is called supervised learning. In machine learning you have supervised learning and unsupervised learning. Supervised learning is a technique for teaching AI systems by training them using a large number of labeled examples. The labelling examples is carried out by a software workers. The programmer identifies certain data and basically labels them to allow the machine to learn. Basically when a machine is learning you supervise the learning by changing the data, by clarify, by classify data for the machine to learn. Basically one of the techniques we will talk much more in the introduction class is on supervised learning.
Once the machine has been learnt, the system can apply a label to the new data and solve the problem. For example, if you train the machine to learn a dog in a photo of faces then eventually the machine can learn how to identify certain thing within a picture.
Another technique iss called unsupervised data, in contract to the supervised data, unsupervised data uses a complete different approach, where the algorithm identifies such patterns in the data. Looking for such similarity that can be used to categrize its data. The algorithm was not set up to pick up specific type of the data itself. But it looks at a certain data and categorize and classify into groups by the similarity.
For example, Google News is grouping all stories of similar topics in a day and creates a news for their readers. We shall talk more about unsupervised and supervised data in the next coming lectures.
Another term that many of you probably have heard when we mention Artificial Intelligence is called deep learning. Deep learning is machine learning model where the neuron network are expanded into a huge network with multiple layers. They are trained using massive number of data. In this network the actificial neuron are arranged in interconnected layers. The input to layer to receive data from the outside world, the output layer would dictate how the system would respond those information. Between those layers, an additional hit layer of neuron that processes data by putting certain weights, certain factors on the information they receive from the preceding layers. And by going to multiple layers, multiple analysis, multiple predictions, they would come up with something much better, more accurate at the end.
In a deep learning network they can solve complex problems because the huge number of neurons working together. Basically this is a massive number of multiple neurons, multiple layers, at each of them feeding the output to the next other. So you come up with much much better refine and much much better accruate and high performance.
The foundation of every artificial intelligence is called natural language processing. And this is also one of the areas that has not been touched correctly or it does not gain a lot of popularity. But I think it is a fundamental because natural language processing is how do we get the computer to understand to process and to manipulate human languages. In order to do that, they have to understand a huge number of information from a grammatical rules to syntax to different colloquiallism and accents. Therefore this is also a very complex algorithm, very complex software that allow the machine to understand the contex of the language that we talk.
For example, in speech recognition, a human voice becomes the audio data, which gests converted in text data, and then be able to process itself. The natural language processing is very important because today there many many systems are using voices. You can see for example, Alexa, many of you have been using that. That is also an AI using natural language processing. We will talk more about this topic in the next couple lectures.
For example, have you seen that in artificial intelligence in 2011, many of you probably have seen the IBM Watson computer made headlines when it won the quiz show Jeopardy, beating the best players at the show had ever produced. The IBM Watson used natural language processing and big data analytics on vast repositories of data that it proceesed to answer human-posed questions, often in a fraction of second. Many of the software in the Watson is created at Carnegie Mellony. And I have been workinh with Dr. Harris Nighburd on the system. And this is one of things first attempt using AI in natural language processing.
So let’s look into the way people using AI in the daily life. Basically AI has been presented in many aspects of our lives. You have seen a Smart Assistant like Siri, Alexa and Cortana, they all use natural language processing to understand the voice commands and answer your questions, setting up reminders, finding the music that you like, adjust thermostat, control home security system, etc.
As you are using some online store like Amazon or Alibaba they also have artificial intelligence software that tracks what you have been looking at, they identify what you buy and use these information to taillor the product they appertize to you and recommends you to buy that. As the customer, this saves you a lot of time searching for what you want. But for the company, for the retailers it means being able to predict the demand of such products. So they have the right stock at the right time at the right place. That can also improve the delivery time, maximazes the chances they are able to sell you something that you need.
One of things that is very popular if you buy a book from Amazon, a certain type of books you read, you will see that in a next couple of weeks, Amazon continues to recommend similar books, “people who bought this book also buy this book and buy that book.” Basically they recommend something based on their own software, smart software that knows what your preferences are.
Many of you have been using Uber? Uber was writing software, this is also an artificial intelligence software that uses machine learning to predict when the car that you’ve booked will arrive and how many cars must be in certain location at certain time of the day. So they make sure they have enough cars for providing services to the customer.
And many of you who buy a new car in the last of coupe years, you probably see that cars have all kinds of software. And basically computer vision to allow you driving the car in a much more safer than the older cars, because they can identify and track traffics around your car when you are planning to change lane or automatically put on the brake if they be able to identify a danger ahead.
Another system that being used very popular in the last few years is the credit card monitoring systems. They use an artificial intelligence software to check for possibility of fraudulent activties. For example if you always shot in the city where you live, and suddently a transaction came from another place, completely outside. You live in the west coast, and a lot of transactions happen in the east coast. That is raising a red flag, an alert. Maybe your credit card has been compromised, or maybe your credit card may be lost and sombeody may use that. And it can creat an alert to you. Identify a pattern between the usage of certain credit card, the bank can monitor and detect fraudulent activities.
Another term that is also associated with artificial intelligence is computer vision. Computer vision is aim to help computer to identify and process certain images in the same way like humen do. We learn to distinguishes between faces of different people. The computer vision is also teaching machine to recognize different objects that they can see through the camera. By multiple layers of systems, they can look at certain pixels, identify colours, converte them into numerical values, and looking for certain patterns that can identify a group of similar colour pixels and textures. It can also help identify different objects.
Computer vision have been used significantly in facial recognition that you will see today. For example, a few weeks ago AI has been used to identify a person from digital image of a video captured. The system can be trained to select certain facial features and given image based on the database. Basically a person who are criminal has been a part of the group and the authority can be able to arrest them, in a group of 60 thousand people, based on facial recognition. This is a very very popular case have been used in the world today.