Autor |
Nachricht |
gast_xya
Anmeldungsdatum: 26.12.2021 Beiträge: 1
|
gast_xya Verfasst am: 26. Dez 2021 17:25 Titel: creators |
|
|
Meine Frage:
Frage:
Wie denkt ihr über eine mögliche Grenze der wissenschaftlichen Forschung?
Gemeint ist insbesondere IT. Dieser Tage wird da an einigem gearbeitet, z.B. genetic programming, Roboter, die möglichst menschenähnlich sind, und natürlich Bionics.
Meine Ideen:
Meine Idee
Viele fragen sich derzeit, ob ein Roboter fühlen kann, usw.
Ich würde gerne zwischen zwei Dingen unterscheiden: Wir leben mit einem existentiellen Risiko, wenn wir an KI arbeiten. Natürlich mögen wir 'save solutions' haben, und im Zweifel schalten wir halt aus.
Können wir diese Entscheidung aber noch treffen, wenn z.B. ein Roboter tatsächlich Emotionen hat?
Wäre die Alternative nicht, dass wir JEDE Forschung bannen, die bionisch sein kann? |
|
|
Kurt
Anmeldungsdatum: 20.06.2021 Beiträge: 750 Wohnort: Bayern
|
Kurt Verfasst am: 26. Dez 2021 17:58 Titel: Re: creators |
|
|
gast_xya hat Folgendes geschrieben: |
Meine Idee
Viele fragen sich derzeit, ob ein Roboter fühlen kann, usw.
Ich würde gerne zwischen zwei Dingen unterscheiden: Wir leben mit einem existentiellen Risiko, wenn wir an KI arbeiten. Natürlich mögen wir 'save solutions' haben, und im Zweifel schalten wir halt aus.
Können wir diese Entscheidung aber noch treffen, wenn z.B. ein Roboter tatsächlich Emotionen hat?
Wäre die Alternative nicht, dass wir JEDE Forschung bannen, die bionisch sein kann? |
Damit würde sich die Menschheit wohl selber kastrieren.
Emotionen sind ja nichts "eigenständiges", sind ganz normale Vorgänge die sich im Gehirn abspielen.
Vergleichbar mit der Umsetzung der Informationen die das Auge liefert und die dann in Farbe und 3d umgerechnet werden.
Kurt _________________ Wir werden die Natur erst verstehen wenn wir kapieren wie genial einfach sie funktioniert. |
|
|
DrStupid
Anmeldungsdatum: 07.10.2009 Beiträge: 5044
|
DrStupid Verfasst am: 26. Dez 2021 18:20 Titel: Re: creators |
|
|
gast_xya hat Folgendes geschrieben: | Wir leben mit einem existentiellen Risiko, wenn wir an KI arbeiten. |
Wir leben auch mit einem existentiellen Risiko, wenn wir nicht an KI arbeiten. Vielleicht ist eine hochentwickelte KI das einzige, was uns vor uns selbst retten kann. |
|
|
willyengland
Anmeldungsdatum: 01.05.2016 Beiträge: 678
|
willyengland Verfasst am: 27. Dez 2021 19:32 Titel: |
|
|
Neulich gab es eine Umfrage unter Wissenschaftlern, was sie als die größte Bedrohung für die Menschheit ansehen und es war ...
nicht der Klimawandel oder so, ... sondern KI.
Im Grunde ist es der nächste logische große Evolutionssprung. _________________ Gruß Willy |
|
|
|
|