Gary Marcus ist von dem Hype um Deep Learning nicht beeindruckt. Marcus, ein ausgebildeter Neurowissenschaftler, der seine Karriere an der Spitze der KI-Forschung verbracht hat, nennt sowohl technische als auch ethische Bedenken.
Der NYU-Professor ist zwar der Ansicht ist, dass Deep Learning eine wichtige Rolle bei der Weiterentwicklung der KI gespielt hat, ist er aber auch der Meinung, dass die derzeitige Überbetonung des Feldes möglicherweise zu seinem Niedergang führt.
Aus technischer Sicht kann Deep Learning die Wahrnehmungsaufgaben des menschlichen Gehirns wie Bild- oder Spracherkennung gut nachahmen. Aber andere Aufgaben, wie das Verstehen von Gesprächen oder kausalen Zusammenhängen, werden nicht erfüllt. Um leistungsfähigere und intelligentere Maschinen zu schaffen, die häufig umgangssprachlich als künstliche allgemeine Intelligenz bezeichnet werden, muss Deep Learning mit anderen Methoden kombiniert werden.
Wenn ein KI-System seine Aufgaben oder die Welt um es herum nicht wirklich versteht, kann dies auch zu gefährlichen Konsequenzen führen. Selbst die kleinsten unerwarteten Änderungen in der Umgebung eines Systems können dazu führen, dass es schief geht. Es gibt bereits unzählige Beispiele dafür: Hasssprachdetektoren, die leicht zu täuschen sind, Bewerbungssysteme, die Diskriminierung aufrechterhalten, und selbstfahrende Autos, die abgestürzt sind und manchmal den Fahrer oder einen Fußgänger töten.
Source:
«We can’t trust AI systems built on deep learning alone»
MIT Technology Review, by Karen Hao, Sep 27, 2019
Read the full interview here:
https://www.technologyreview.com/s/614443/we-cant-trust-ai-systems-built-on-deep-learning-alone/