• Hallo liebe Userinnen und User,

    nach bereits längeren Planungen und Vorbereitungen sind wir nun von vBulletin auf Xenforo umgestiegen. Die Umstellung musste leider aufgrund der Serverprobleme der letzten Tage notgedrungen vorverlegt werden. Das neue Forum ist soweit voll funktionsfähig, allerdings sind noch nicht alle der gewohnten Funktionen vorhanden. Nach Möglichkeit werden wir sie in den nächsten Wochen nachrüsten. Dafür sollte es nun einige der Probleme lösen, die wir in den letzten Tagen, Wochen und Monaten hatten. Auch der Server ist nun potenter als bei unserem alten Hoster, wodurch wir nun langfristig den Tank mit Bytes vollgetankt haben.

    Anfangs mag die neue Boardsoftware etwas ungewohnt sein, aber man findet sich recht schnell ein. Wir wissen, dass ihr alle Gewohnheitstiere seid, aber gebt dem neuen Board eine Chance.
    Sollte etwas der neuen oder auch gewohnten Funktionen unklar sein, könnt ihr den "Wo issn da der Button zu"-Thread im Feedback nutzen. Bugs meldet ihr bitte im Bugtracker, es wird sicher welche geben die uns noch nicht aufgefallen sind. Ich werde das dann versuchen, halbwegs im Startbeitrag übersichtlich zu halten, was an Arbeit noch aussteht.

    Neu ist, dass die Boardsoftware deutlich besser für Mobiltelefone und diverse Endgeräte geeignet ist und nun auch im mobilen Style alle Funktionen verfügbar sind. Am Desktop findet ihr oben rechts sowohl den Umschalter zwischen hellem und dunklem Style. Am Handy ist der Hell-/Dunkelschalter am Ende der Seite. Damit sollte zukünftig jeder sein Board so konfigurieren können, wie es ihm am liebsten ist.


    Die restlichen Funktionen sollten eigentlich soweit wie gewohnt funktionieren. Einfach mal ein wenig damit spielen oder bei Unklarheiten im Thread nachfragen. Viel Spaß im ngb 2.0.

Wann platzt die KI-Blase?

one

Querulant

Registriert
21 Juli 2013
Beiträge
6.007
Ort
ja
Ich überlege gerade, wie groß die Wahrscheinlichkeit sein mag, wenn sie ja beim Raten schon bei 0 ist
Um Ralf Otte zu nehmen:

(Der scheibt auch recht viel Zeugs..)

Ottes zentraler Gedanke ist aber, dass es durchaus möglich ist, Maschinen mit echtem Bewusstsein herzustellen. Dieses basiere auf einer anderen Technologie, den neuromorphen Systemen. Derartige Computer sind Netzwerke aus Bauelementen, die Neurone elektronisch nachbilden. Sie sind also keine Software, die Gehirnzellen simulieren, sondern Hardware, in denen echte physikalische Größen verarbeitet werden. Otte prognostiziert, neuromorphe Chips würden die softwarebasierte KI übertrumpfen und im Jahr 2040 werde das Maschinenbewusstsein die Welt erobern. Warum das so ist, führt er in diesem Buch nicht weiter aus.

Ehrlich gesagt nehme ich den nicht ernst. Ist ne Laberbacke.
 

Flip

Aktiver NGBler

Registriert
7 Juni 2015
Beiträge
997
Sry. Vertippselt. Nicht "0", sondern "0,5"




Das ist aber vollkommen Off-topic. ob Du den Ernst nimmst, oder nicht.

Es geht hier ja nur um eine Einstufung, die er vorgenommen hat. Solltest Du der widersprechen wollen, dann kannst Du das ja machen.
Ich empfinde Deinen Beitrag als höchstgradig destruktiv und überflüssig, mit Ausnahme des Hinweises auf meinen Zahlenfehler.
 

one

Querulant

Registriert
21 Juli 2013
Beiträge
6.007
Ort
ja
Du hast den Kerl und das OT hier reingebracht. Sicher, dass du dich im richtigen Bereich bewegst? VT ist nebenan.
 

Fetzi

Bekannter NGBler

Registriert
29 Sep. 2021
Beiträge
2.624
denn alles kann Kunst sein. Selbst der Haufen meines Hundes.
Die Definition von Kunst ist, sie ist ein vom Menschen gemachtes Kulturprodukt. Das habe nicht ich mir ausgedacht...
Der Haufen deines Hundes kann also nur dann Kunst sein, wenn du dir daraus eine Vase töpferst.

Das Erschaffen von neuem Wissen ist allerdings das, was Intelligenz ausmacht.
Nein, das ist nur ein Teil von Intelligenz und nicht die Voraussetzung für Intelligenz.

Es gibt hier einfach allgemein anerkannte Definitionen die sich leider nicht mit deinen decken.
 

BurnerR

Bot #0384479

Registriert
20 Juli 2013
Beiträge
5.507
Wow. Man kann eine Maschine mit Millionen Bildern füttern und dann kann die mit großer Wahrscheinlichkeit einen Hund von einer Katze unterscheiden, wenn da klar etwas zu erkennen ist. Ich überlege gerade, wie groß die Wahrscheinlichkeit sein mag, wenn sie ja beim Raten schon bei 0,5 ist
Zeig einem Kleinkind 10 Bilder von Katzen und 10 von Hunden und der Mensch wird sein ganzes Leben den Unterschied erkennen, selbst bei abstrakten Abbildungen.
Besser als du es darstellst ist heutige KI durchaus. Vom Grundgedanken her aber hast du völlig recht, Menschen lernen viel, viel schneller als künstliche neuronale Netze (KNN) und auch völlig anders. Ein menschliches Neuron hat so ziemlich nichts mit einem "künstlichen Neuron" wie bei KNN zu tun und ein KNN hat so ziemlich nichts mit dem menschlichen Gehirn gemein.

Stufe 1 (Denken und Deduktion),
Stufe 2 (Lernen und Induktion),
Stufe 3 (Kreativität und Kognition),
Stufe 4 (Bewusstsein und Wahrnehmung)
und Stufe 5 (Selbstbewusstsein und Selbstwahrnehmung).

ChatGPT, deep learning, machine learning, wie immer man jetzt den Bums nennt, kommt alles nicht über Stufe 3 heraus.
Ich sehe hier erstmal keine sinnvolle Einteilung. Es bringt auch nichts eine konkrete EInteilung in Stufen über stark abstrakte Begriffe zu definieren. Die von one verlinkte Buchkritik ist natürlich absolut vernichtend, wenn die Hälfte davon zutrifft, dann bin ich auch nicht gewillt, den Typ ernst zu nehmen.

Aus vorhandenem Wissen neues Wissen zu generieren ist übrigens vergleichsweise simpel und kann daher kein Kriterium für Intelligenz sein. Die Stichworte wurden hier im anderen Kontext schon genannt: Deduktion und Induktion. Logik-Programme können beides schon sehr lange.
 

dexter

Cloogshicer®
Teammitglied

Registriert
14 Juli 2013
Beiträge
5.447
  • Thread Starter Thread Starter
  • #26
Ich empfinde Deinen Beitrag als höchstgradig destruktiv und überflüssig
Da das "mein" Thread ist, fände ich es nett, wenn Du solche Befindlichkeiten mir überlässt.
Auch OT: Danke für die Rückmeldungen und Anregungen ... auch an den Pfaffen... :beer:
 

dexter

Cloogshicer®
Teammitglied

Registriert
14 Juli 2013
Beiträge
5.447
  • Thread Starter Thread Starter
  • #27
Ich sehe hier erstmal keine sinnvolle Einteilung. Es bringt auch nichts eine konkrete EInteilung in Stufen über stark abstrakte Begriffe zu definieren.
Wie soll man das sonst "einteilen"? Auf Wikipedia gibt's was zu "schwache" und "starke" KI und da sind wir bei meinem Problem; man kann mit so schwammigen "Einteilungen" aktuell KI an jeden erdenklichen Krempel dranschreiben...
Aus vorhandenem Wissen neues Wissen zu generieren ist übrigens vergleichsweise simpel
Simpel? Ernsthaft? Was gab's denn da bahnbrechendes die letzten 10-20 Jahre?

P.s. Ich erinnere mich blass, dass Google vor ~10 Jahren was KI-ähnliches gebaut hatte, was GO-spielen "selbst" gelernt hat. Fand ich faszinierend, aber überzeugt mich nicht.
 

BurnerR

Bot #0384479

Registriert
20 Juli 2013
Beiträge
5.507
Wie soll man das sonst "einteilen"?
Man braucht keine Stufen, KI hat nichts mit menschlicher Intelligenz zu tun. Man braucht ja auch kein Stufenmodell um den Unterschied zwischen einer Banane und unserer Sonne darzustellen.

Simpel? Ernsthaft? Was gab's denn da bahnbrechendes die letzten 10-20 Jahre?
Du denkst da einfach zu groß und "fantastisch". Logisches schließen ist vergleichsweise simpel, zum Beispiel "Es gilt A. Aus A folgt B. Also schließe ich darauf, dass B gilt". Das ist jetzt natürlich trivial, aber Computerprogramme fanden schon vor 10 Jahren mathematische Beweise für Thesen, die ein Mensch bis dahin nicht beweisen konnte. Unnützes oder vermeindlich unnützes Wissen zu generieren ist nochmal deutlich einfacher, aber das gilt für Menschen ja ebenso.
 

Flip

Aktiver NGBler

Registriert
7 Juni 2015
Beiträge
997
@BurnerR,
Natürlich hat KI etwas mit menschlicher Intelligenz zu tun. Die Schnittmenge ist Intelligenz, und wie groß die ist. Dabei könnte die auch Null sein.

Dabei geht es nicht um Banane und Sonne, sondern mehr um z.B. Sonne und Taschenlampe. Natürlich spielen die nicht in einer Liga, aber beides leuchtet und das kann man vergleichen. Und wenn man schon von Ligen redet, dann kann man da auch für Strahler ein Stufenmodell erstellen.



Was Du da als simples logisches Denken beschreibt, ist ja nur ein herkömmlicher Algorithmus. Da muss die Logik ja implementiert werden.
(Das ist ja das Schwierige und Langwierige beim Programmieren. Nicht den Code zu schreiben, sondern alle Fälle und Möglichkeiten zu erfassen)

Der Witz an der KI soll ja sein, dass dies eben nicht nötig ist




Computer können auch heute noch keine Beweise führen.

Es gibt Theorembeweiser, als Hilfsmittel.
Da muss ein Mensch ein Problem auf eine endliche Zahl an Möglichkeiten reduzieren und der Computer testet die dann per Brutforce.
Es gibt also keinen nachvollziehbaren Beweis.

Außerdem ist es mehr ein Indiz, weil, wer soll überprüfen, dass das Programm keine Fehler macht?
 

dexter

Cloogshicer®
Teammitglied

Registriert
14 Juli 2013
Beiträge
5.447
  • Thread Starter Thread Starter
  • #30
Man braucht keine Stufen, KI hat nichts mit menschlicher Intelligenz zu tun. Man braucht ja auch kein Stufenmodell um den Unterschied zwischen einer Banane und unserer Sonne darzustellen.
Wenn das für Dich so einfach ist, ok, ich für meinen Teil bin aber mit so schwammigem Firlefanz nicht zufrieden. (Siehe mein Beitrag auf den Du zwar geantwortet hast aber genau 0 drauf eingegangen...)
Konkrete Fragen:
  1. Wenn ich keine Stufen brauche, warum wird (zumindest auf wikipedia) zwischen starker (gibt's (noch) nicht) und schwacher KI unterschieden? Und was hat das mit Bananen und Sonnen zu tun?
  2. Wenn ich 'ne schwache KI als sinngemäss KI definiere, die so tut als wäre sie schlau/Mensch oder irgendwas, was ist dann keine schwache KI?
    Warum ist ein Schachprogramm keine KI? Oder irgendein Single-player-game. Worin unterscheidet sich das hochfahren eines Computers definitionsgemäss von bspw. Chatgpt? Da passieren in allen Fällen Unmengen Dinge, die von Unmengen Abhängigkeiten abhängen. Das eine nennt sich Ki, das andere nicht. Das ist willkürlich und nicht nachzuvollziehen, es sei denn, man lässt 5e grade sein..
Du denkst da einfach zu groß und "fantastisch". Logisches schließen ist vergleichsweise simpel, zum Beispiel "Es gilt A. Aus A folgt B. Also schließe ich darauf, dass B gilt".
Welche Weisheit, da wäre ich nie drauf gekommen. Ich back Dir da mal nen virtuellen Kuchen für.
Wenn wer (anders) inhaltlich was zum Thema beizutragen hat, was nicht Beweis durch Behauptung ist; nur zu ... danke.
 
Reaktionen: MSX

Fetzi

Bekannter NGBler

Registriert
29 Sep. 2021
Beiträge
2.624
Das ist willkürlich und nicht nachzuvollziehen,
"Dabei wird Intelligenz verstanden als die Eigenschaft, die ein Wesen befähigt, angemessen und vorausschauend in seiner Umgebung zu agieren; dazu gehört die Fähigkeit, Sinneseindrücke wahrzunehmen und darauf zu reagieren, Informationen aufzunehmen, zu verarbeiten und als Wissen zu speichern, Sprache zu verstehen und zu erzeugen, Probleme zu lösen und Ziele zu erreichen."
Quelle wiki

Ich würde es sinnvoll finden wenn man sich zuerst mal die allgemein anerkannten Definitionen zu dem Thema anschaut.
 

Flip

Aktiver NGBler

Registriert
7 Juni 2015
Beiträge
997
Dann braucht man nicht mehr über schwach oder stark zu diskutieren. Mit der Definition ist das Thema erledigt. Es gibt dann keine KI.
 

Fetzi

Bekannter NGBler

Registriert
29 Sep. 2021
Beiträge
2.624
Wie kommst du drauf? Künstliche Intelligenz ist halt anders als menschliche Intelligenz und damit auch anders zu definieren und zu bewerten.
Und es gibt sehr wohl KI die kognitive Fähigkeiten nutzt und lernt.
Ob das Schachprogramm das einfach nur auf Basis einer wachsenden Datenbank den besten Zug berechnet zur KI gezählt werden kann, ich denke nicht.
 

Flip

Aktiver NGBler

Registriert
7 Juni 2015
Beiträge
997
Ich komme deswegen darauf, weil es keine Maschine gibt, die die Definition erfüllen kann.
Es fehlt ja bereits an der Fähigkeit, seine Umgebung wahrzunehmen.
 

BurnerR

Bot #0384479

Registriert
20 Juli 2013
Beiträge
5.507
Natürlich hat KI etwas mit menschlicher Intelligenz zu tun. Die Schnittmenge ist Intelligenz, und wie groß die ist. Dabei könnte die auch Null sein.
Das rein am sprachlichen aufzuhängen halte ich nicht für sinnvoll.

Computer können auch heute noch keine Beweise führen.

Es gibt Theorembeweiser, als Hilfsmittel.
Da muss ein Mensch ein Problem auf eine endliche Zahl an Möglichkeiten reduzieren und der Computer testet die dann per Brutforce.
Es gibt also keinen nachvollziehbaren Beweis.
Mit dem Bruteforce hast du Recht und anscheinend geht es dabei stets um viele Fallunterscheidungen und nicht darum, per Bruteforce einen mathematischen Beweis zu finden. Nichtsdestotrotz können die Ergebnisse - also der Beweis - dann von Menschen nachvollzogen werden.

Außerdem ist es mehr ein Indiz, weil, wer soll überprüfen, dass das Programm keine Fehler macht?
Das ist gewiss aufwendig, andererseits ist auch das überprüfen langer mathematischer Beweise sehr aufwendig. Ich denke da fehlt es in der Mathematik vor allem an der Manpower, passenden Strukturen und eine zugehörige Kultur. Auch weil zugehörige Ergebnisse wohl bisher eher selten gewesen sind. Das ist aber zumindest kein prinzipielles Problem.

Es gibt dann keine KI.
Noch nicht ;-). Aber es ist eben sinnvoll, das was wir heute haben als "KI" zu bezeichnen. Vor 30 Jahren war der Schachcomputer halt eine "KI". Der Begriff beschreibt immer den letzten Stand der Forschung und das ist ja auch völlig ok, solange man sich dessen bewusst ist.

Es fehlt ja bereits an der Fähigkeit, seine Umgebung wahrzunehmen.
Je nach Definition von "Wahrnehmung". Ich weiß nicht, ob es da verschiedenes gibt, aber (musste das selber grad bei Wikipedia nachgucken) ich denke Wahrnehmung impliziert in der üblichen Definition Kognition und die hat ein Computer nicht. Das meinst du vermutlich auch?
 

Fetzi

Bekannter NGBler

Registriert
29 Sep. 2021
Beiträge
2.624
Es fehlt ja bereits an der Fähigkeit, seine Umgebung wahrzunehmen.
Das stimmt so ja nicht. Gibt ja genug Sensorik für sowas.
Das man menschliche Intelligenz nicht 1:1 mit künstlicher vergleichen kann sollte doch auch klar sein.
Vielleicht auch mal den wiki Artikel zu Thema KI lesen.
 
Reaktionen: MSX

Flip

Aktiver NGBler

Registriert
7 Juni 2015
Beiträge
997
Das rein am sprachlichen aufzuhängen halte ich nicht für sinnvoll.
Ich habe das ja am Besipiel Lampe Sonne erklärt


Nichtsdestotrotz können die Ergebnisse - also der Beweis - dann von Menschen nachvollzogen werden.
Nein. Es wird ja kein Beweis als Logikkette generiert, sondern ein Ergebnis wird als Beweis angesehen



Das ist gewiss aufwendig, andererseits ist auch das überprüfen langer mathematischer Beweise sehr aufwendig. Ich denke da fehlt es in der Mathematik vor allem an der Manpower, passenden Strukturen und eine zugehörige Kultur. Auch weil zugehörige Ergebnisse wohl bisher eher selten gewesen sind. Das ist aber zumindest kein prinzipielles Problem.
Wenn Bruteforce so aufwendig ist, dass man dafür eine Maschine einsetzt, dann wird man ja nicht hingehen und das von Menschen nachvollziehen lassen, um das zu prüfen, ob das auch stimmt.
Es gibt keine Garantie, dass an alle Fälle gedacht wurde und auch nicht, dass der Code fehlerfrei ist



Je nach Definition von "Wahrnehmung". I

Die Maschine hat keine Vorstellung von ihrer Umgebung. Sensoren können einzelne Parameter abgreifen und mit gespeicherten Informationen abgleichen. Die Informationen können verarbeitet werden, aber die Maschine weiß nicht, woher sie kommen oder wie alt sie sind.

Gibt der Maschine ein Bellen und einen Hund, dann erkennt er Bellen und Hund. Nicht aber, ob der Hund bellt.

Gibt ihr Bäume, dann weiß sie nicht, ob das ein Wald ist, geschweige denn, ob sie sich darin befindet.



Fahr mit der Maschine mal durch ein paar Straßen und sage ihr, "und jetzt fahr zurück!".

(Nicht über GPS) Sie kann sich nicht zurechtfinden, weiß nicht mal, wo sie ist.



Der Mensch sieht, wie etwas Buschiges sich bewegt, hinter einer Mauerecke. Die Maschine wird wahrscheinlich nicht mal erkennen, dass es ein Hund ist. Der Mensch erkennt den Schwanz und damit Nachbars Lumpi, dass er sich in Deinem Vorgarten befinden und Dir aktuell auf Deinen Rasen scheißt.
 

Fetzi

Bekannter NGBler

Registriert
29 Sep. 2021
Beiträge
2.624
Gibt der Maschine ein Bellen und einen Hund, dann erkennt er Bellen und Hund. Nicht aber, ob der Hund bellt.
Natürlich kann das eine Maschine mit Stereo Ortung erkennen. Genausogut oder eher deutlich besser als ein Mensch.
Grundsätzlich ist es imho falsch zu sagen, eine Maschine kann ja nicht alles so wie der Mensch daher ist sie nicht intelligent.
Es geht bei der KI (derzeit) um spezielle Bereiche und einzelne Fähigkeiten.
Nicht um die komplette Nachbildung einer intelligenten Lebensform.
Auch wenn man das bereits mit mäßigem Erfolg versucht.
 

Flip

Aktiver NGBler

Registriert
7 Juni 2015
Beiträge
997
Wie das?
Er bekommt z.B. die Information Bellen 3 Uhr und Hund auf 3 Uhr?
Und dann?
 

Fetzi

Bekannter NGBler

Registriert
29 Sep. 2021
Beiträge
2.624
Woher weißt du denn, dass der Hund gebellt hat?
 
Oben