Die Verarbeitung natürlicher Sprache (Natural Language Processing, NLP) ist ein Teilgebiet der Linguistik, der Informatik und der künstlichen Intelligenz, das Algorithmen verwendet, um menschliche Sprache zu interpretieren und zu manipulieren.
Diese Technologie ist einer der am weitesten verbreiteten Bereiche des maschinellen Lernens und ist entscheidend für die effektive Analyse großer Mengen unstrukturierter, textlastiger Daten. AS KI wird sich weiter ausbreiten, und damit wird auch die Nachfrage nach Fachleuten steigen, die in der Lage sind, Modelle zu erstellen, die Sprache analysieren, kontextbezogene Muster aufdecken und Erkenntnisse aus Text und Audio gewinnen.
Am Ende dieser Spezialisierung werden Sie in der Lage sein, NLP-Anwendungen zu entwickeln, die Fragen beantworten und Stimmungsanalysen durchführen sowie Tools zur Übersetzung von Sprachen und zur Zusammenfassung von Text erstellen. Diese und andere NLP-Anwendungen werden bei der bevorstehenden Umstellung auf eine KI-gestützte Zukunft an vorderster Front stehen.
Diese Spezialisierung wird von zwei Experten für NLP, maschinelles Lernen und Deep Learning entwickelt und unterrichtet. Younes Bensouda Mourri ist Dozent für KI an der Stanford University, der auch am Aufbau der Deep Learning-Spezialisierung beteiligt war. Łukasz Kaiser ist Staff Research Scientist bei Google Brain und Mitautor von Tensorflow, den Bibliotheken Tensor2Tensor und Trax sowie dem Transformer Paper.
Praktisches Lernprojekt
Diese Spezialisierung vermittelt Ihnen die Grundlagen des maschinellen Lernens und modernste Deep-Learning-Techniken, die Sie für den Aufbau modernster NLP-Systeme benötigen:
- Verwenden Sie logistische Regression, naive Bayes und Wortvektoren, um Stimmungsanalysen zu implementieren, Analogien zu vervollständigen, Wörter zu übersetzen und ortsabhängiges Hashing zur Annäherung an die nächsten Nachbarn zu verwenden.
- Dynamische Programmierung, versteckte Markov-Modelle und Worteinbettungen zur Autokorrektur von falsch geschriebenen Wörtern, zur automatischen Vervollständigung von Teilsätzen und zur Identifizierung von Part-of-Speech-Tags für Wörter verwenden.
- Verwendung von dichten und rekurrenten neuronalen Netzen, LSTMs, GRUs und Siamese Netzen in TensorFlow, um fortgeschrittene Stimmungsanalyse, Texterzeugung, Named Entity Recognition und die Identifizierung doppelter Fragen durchzuführen.
- Verwenden Sie Encoder-Decoder, Kausal- und Self-Attention-Modelle, um fortgeschrittene maschinelle Übersetzung von vollständigen Sätzen, Textzusammenfassung und Fragenbeantwortung durchzuführen. Lernen Sie Modelle wie T5, BERT und mehr mit Hugging Face Transformers!