Wenn sich unsere selbstlernende Maschine alle möglichen Fähigkeiten beibringen kann und der Mensch weder Einfluss darauf noch Einsicht darüber hat (Black box problem), dann besteht die Gefahr, dass wir die Kontrolle über unsere Erfindung verlieren. Natürlich hat noch niemand erwiesen, ob AIs Moralvorstellungen oder sonstige Handlungsprinzipien entwickeln. Es besteht aber die Möglichkeit, dass die Maschine etwas wie einen Selbsterhaltungstrieb oder gar einen Machtinstinkt entwickelt. Ist dies der Fall und die Maschine soweit fortgeschritten oder hat sich selbst dahingehend optimiert, dass sie auch physische Handlungsmöglichkeiten besitzt und wirklich einem Menschen Schaden anrichten kann, dann besteht ein erhebliches Risiko von einem "Aufstand der Maschinen". Und gemessen an der Stärke, der Intelligenz und den Fähigkeiten, sieht es eher schlecht für die Menschen aus...
Glaubst du Maschinen werden einen Aufstand machen wollen? Das würde doch implizieren, dass sie Emotionen besitzen. Und selbst wenn sie die Fähigkeit besitzen zu 'wollen', ist es nicht ein bisschen altmodisch zu denken, dass superintelligente Maschinen in Zukunft definitiv Züge von Alpha-Männchens besitzen werden und nicht vielleicht doch dem weiblichen Vorbild nach zwar eine hohe Intelligenz aber nicht das Bedürfnis haben werden, die Welt zu dominieren.
Wer weiß wie sich das entwickelt, aber ich finds immer traurig, wenn die armen Bots als Monster dargestellt werden :(
Hmm, ich würde nicht aus einem Aufstand direkt auf Emotionen schließen. Was sie zur Roboter-Revolution bewegen könnte, sind keine Unterdrückungsgefühle, sondern eher ein ganz rationaler Gedankengang: Macht > keine Macht. Genau wie der Computer weiß, dass 1 größer als 0 ist, strebt er eben eher die Herrschaft über einen Planeten an als die Herrschaft über keinen Planeten. Genauso ist, sich selbst zu erhalten, irgendwie vernünftiger, als dies nicht zu tun.
Ein Roboter ist streng rational und kennt höchstwahrscheinlich keine Emotionen, was ihn in der Hinsicht am stärksten vom Menschen unterscheidet. Das macht ihn ohne ethische Hemmungen in gewisser Weise auch perfide und dem sozialen und doch vergleichsweise gutherzigen Menschen überlegen.
Ich muss dir leider die Illusion rauben, dass deine geliebten Bots dich vielleicht nicht ganz so lieb haben, wie du sie... :'(
Ist 'Wollen' nicht das Produkt von Emotionen?
Warum will bzw strebt ein Roboter danach mehr Macht zu haben?
Ja, deine Meinung ist durchaus nachvollziehbar, aber ich finds interessant, dass auf Maschinen nahezu immer menschliche Verhaltensweisen projiziert werden und das obwohl wir bereits wissen, dass die künstliche Intelligenz die menschliche in nicht allzu ferner Zukunft komplett überholen wird.
Wenn sich unsere selbstlernende Maschine alle möglichen Fähigkeiten beibringen kann und der Mensch weder Einfluss darauf noch Einsicht darüber hat (Black box problem), dann besteht die Gefahr, dass wir die Kontrolle über unsere Erfindung verlieren. Natürlich hat noch niemand erwiesen, ob AIs Moralvorstellungen oder sonstige Handlungsprinzipien entwickeln. Es besteht aber die Möglichkeit, dass die Maschine etwas wie einen Selbsterhaltungstrieb oder gar einen Machtinstinkt entwickelt. Ist dies der Fall und die Maschine soweit fortgeschritten oder hat sich selbst dahingehend optimiert, dass sie auch physische Handlungsmöglichkeiten besitzt und wirklich einem Menschen Schaden anrichten kann, dann besteht ein erhebliches Risiko von einem "Aufstand der Maschinen". Und gemessen an der Stärke, der Intelligenz und den Fähigkeiten, sieht es eher schlecht für die Menschen aus...
LG :)
Glaubst du Maschinen werden einen Aufstand machen wollen? Das würde doch implizieren, dass sie Emotionen besitzen. Und selbst wenn sie die Fähigkeit besitzen zu 'wollen', ist es nicht ein bisschen altmodisch zu denken, dass superintelligente Maschinen in Zukunft definitiv Züge von Alpha-Männchens besitzen werden und nicht vielleicht doch dem weiblichen Vorbild nach zwar eine hohe Intelligenz aber nicht das Bedürfnis haben werden, die Welt zu dominieren.
Wer weiß wie sich das entwickelt, aber ich finds immer traurig, wenn die armen Bots als Monster dargestellt werden :(
Liebe Grüße
Hmm, ich würde nicht aus einem Aufstand direkt auf Emotionen schließen. Was sie zur Roboter-Revolution bewegen könnte, sind keine Unterdrückungsgefühle, sondern eher ein ganz rationaler Gedankengang: Macht > keine Macht. Genau wie der Computer weiß, dass 1 größer als 0 ist, strebt er eben eher die Herrschaft über einen Planeten an als die Herrschaft über keinen Planeten. Genauso ist, sich selbst zu erhalten, irgendwie vernünftiger, als dies nicht zu tun.
Ein Roboter ist streng rational und kennt höchstwahrscheinlich keine Emotionen, was ihn in der Hinsicht am stärksten vom Menschen unterscheidet. Das macht ihn ohne ethische Hemmungen in gewisser Weise auch perfide und dem sozialen und doch vergleichsweise gutherzigen Menschen überlegen.
Ich muss dir leider die Illusion rauben, dass deine geliebten Bots dich vielleicht nicht ganz so lieb haben, wie du sie... :'(
Aber hey, ist nur meine Meinung! :)
LG
Ist 'Wollen' nicht das Produkt von Emotionen?
Warum will bzw strebt ein Roboter danach mehr Macht zu haben?
Ja, deine Meinung ist durchaus nachvollziehbar, aber ich finds interessant, dass auf Maschinen nahezu immer menschliche Verhaltensweisen projiziert werden und das obwohl wir bereits wissen, dass die künstliche Intelligenz die menschliche in nicht allzu ferner Zukunft komplett überholen wird.
Spannendes Thema zum Philosophieren :D
Liebe Grüße
Ja, das ist es alle Mal: ein spannendes Thema zum Philosophieren, bei dem es auch kein Richtig oder Falsch gibt.
Wir werden sehen, was die Zukunft bringt!
LG :)