Wikidata:Forum/Archiv/2015/01

This page is an archive. Please do not modify it. Use the current page, even to continue an old discussion.

Freebase wird dichtgemacht

Auf Project chat (Tool for adding references and data to Wikidata) wird angekündigt, dass Google Freebase dicht machen wird. Dann wird noch ein tool angekündigt, aber leider reicht mein Englisch hier nicht aus. We will release several sets of Freebase data ready for consumption by this tool under a CC0 license. This tool should also work for statements already in Wikidata without sufficient references, or for other datasets, like DBpedia and other machine extraction efforts, etc. Heißt das, das Tool soll References aus Freebase nach Wikidata transferieren? Aber wohl nur einzeln, oder? Ich habe mir Angela Merkel bei Freebase angesehen. Mit Quellen scheint man es bei Freebase aber nicht so zu haben, eher mit Weblinks. Warum aber dann dieses Tool? Interessant wäre eventuell and other machine extraction efforts. Ich denke da an diverse Statistikämter, von wo sehr wertvolle Daten kommen könnten. Wobei man das aber wohl auch nicht übertreiben darf, denn diese Daten dürften kaum mit CC0 lizenziert sein. --Molarus 07:09, 17 December 2014 (UTC)

Das Tool soll dabei helfen neue Quellen für Aussagen zu finden und einfach einzutragen. Ein wenig wie bei Wikidata the Game wenn ich es richtig verstanden habe. --Lydia Pintscher (WMDE) (talk) 22:57, 17 December 2014 (UTC)
Ja so ist es wohl, aber der Entwurf ist noch sehr grob. Reine URLs als Beleg überzeugen mich nicht. Aber warten wir mal ab. --Succu (talk) 23:02, 17 December 2014 (UTC)
Schreib das ruhig mal da. Denny braucht Input :) --Lydia Pintscher (WMDE) (talk) 23:04, 17 December 2014 (UTC)
Vielleicht sollten wir ja Freebase ID (P646) ganz ganz schnell wieder löschen (lassen), ehe es noch zu Selbstverweisen kommt.. :) Wenn es konkreter wird gibt's sicher „Input” von mir. Gruß --Succu (talk) 23:15, 17 December 2014 (UTC)
Succu: Es geht schon los mit den Freebase-Spamming Plänen. --Atlasowa (talk) 19:09, 21 December 2014 (UTC)
Und hier auch: Wikidata_talk:WikiProject_Freebase#Properties. --Atlasowa (talk) 20:49, 21 December 2014 (UTC)
Das fehlte auch noch. --Succu (talk) 12:38, 23 December 2014 (UTC)
Abwarten und Tee trinken, Atlasowa. Ich glaube nicht, dass Googels Ankündigung so zu verstehen ist, dass einfach alles unbegutachtet von Freebase hierher transferiert werden soll. Das würde nämlich die Qualitat der Daten hier wieder erheblich verschlechtern. Und das kann nicht in Googles Interesse sein. --Succu (talk) 07:59, 22 December 2014 (UTC)
Aufguss. --Succu (talk) 22:31, 4 January 2015 (UTC)

Hier schrieb jemand auf Heise: Das ist nicht nur eine DB sondern auch ein "Metaindex" der Verknüpfungen mit unzähligen externen Datenbanken enthält. (...) Das ist echt ein wertvoller Dienst der automatisch "in Sync" mit allen externen Datenquellen ist. Sollte Freebase tatsächlich solche Verknüpfungen haben, mit denen Informationen von alleine aktualisiert werden, wäre es super, wenn man das bei uns mit bots nachbauen könnte. (Es sei denn, sie sind nur mit Wikimedia und DBPedia "in Sync".) Ich kann aber nicht aufgrund der Meldung abschätzen, ob sie so etwas machen würden. Ehrlich gesagt, scheint mir das geplante Tool eher dem Tool zum upload von Bildern nach commons zu ähneln. Also eine Alternative zur Dateneingabe über Wikidata.org. Für Gelegenheits-Dateneingeber mag das eine Hilfe sein, wenn sie den jemals etwas von dem tool auf dem Toolserver erfahren. PS: Siehe auch Wikidata:WikiProject Freebase. PPS: Ich hoffe wirklich, dass die refs nicht mittels Google Suche vorgeschlagen werden. Ich war zuvor mehrere Jahre lang als Autor in der WP aktiv gewesen und z.B. die top-Googlelinks als ref zu nehmen wäre mir nicht im Traum einfallen. Das ist WP-Anfängerniveau. Ich bin immer zweistufig vorgegangen. In der ersten Stufe das korrekte Suchwort ergoogeln (durchaus in mehreren Sprachen) und dann in der zweiten Stufe eine "gute" Quelle suchen. Ein guter Googlerank ist dafür irrelevant, da der nur eine quantitative Aussage macht, keine qualitative. --Molarus 05:59, 18 December 2014 (UTC)

+1 +Amen zur "zweistufigen" Suche :-) Molarus! Ich habe bspw. neulich WP Listen von Hochschulen in Bolivien/Nigeria/Angola überarbeitet und dafür Quellen mit Zahlen usw. gesucht, mehrstufige Suche, auf englisch. Leider wird google immer unbrauchbarer, erste Ergebnisse fast nur Wikipedia, facebook, contentscraper Seiten, dann Seiten die schon von Wikipedia als Quellen verwendet wurden... ^^ usw. Man müsste fast ein "Internetrecherche How-To" für Wikipedia schreiben, "Into the Deep Web" oder so ;-) Nee, ernsthaft. --Atlasowa (talk) 14:52, 18 December 2014 (UTC)
Da die Zeit vorbei ist, als eigenes Wissen ausreichte, müsste eigentlich die Recherche in Wikipedia im Vordergrund stehen. Bei mir war es immer so, dass das den Hauptteil des Artikelschreibens ausmachte, weil auch das eigene Wissen so gegengeprüft werden kann. In Bezug auf Wikidata wäre zu fragen, wie man so etwas mit tools unterstützen kann. Ich denke auch, dass ein gutes tool einen didaktischen Anspruch genügen sollte. Also wie sollte ein tool aussehen, damit die Benutzer lernen besser zu recherchieren? Ich glaube aber nicht, dass man damit freebase kommen kann. Und für mich persönlich gilt, dass mein Englisch für eine Diskussion darüber nicht ausreichen würde. Vielleicht taugt das Thema aber als mein privater Zeitvertreib für die anstehende Weihnachtszeit (ab Morgen). --Molarus 15:50, 18 December 2014 (UTC)

Relevanzfrage Bahnhöfe

Hallo, gehe ich richtig in der Annahme, dass, anders als in de.Wikipedia, in Wikidata, jeder Bahnhof oder Haltepunkt relevant für einen eigenen Eintrag ist? Viele Grüße --Pustekuchen2014 (talk) 18:59, 27 December 2014 (UTC)

Vermutlich ja, denn in WD ergibt sich bereits eine Relevanz, wenn das Objekt (item) im Hinblick auf ein anderes, bereits bestehendes hilfreich ist. Dafür reicht schon eine Verküpfung im Stil von "folgt auf", z.B. um ein Streckennetz abzubilden. --Kolja21 (talk) 00:58, 28 December 2014 (UTC)
Ich denke es wäre generell angebracht wenn man wikidata möglichst nicht mit der Wikipedia vergleicht (auch wenn diese die Daten nutzen kann). Die restriktive Handhabung der Relevantzkritierien kann uns ohnehin bei komplexeren Querys auf den Kopf fallen - auch wenn der Bahnhof hier auf der sicheren Seite ist, besteht der Geburtsfehler schon darin in Einträgen und nicht in Datensätzen zu denken, jeder mit erfahrungen im bereich Datenbanken kann bestätigen das die Herangehensweise nicht sooo problemfrei ist --FischX (talk) 17:01, 28 December 2014 (UTC)
Ok, das beantwortete meine Frage. Danke (noch) dafür. :-) --Pustekuchen2014 (talk) 20:09, 9 January 2015 (UTC)

Wikimedia blog: Scaling Wikidata: success means making the pie bigger

Großer Beitrag von Lydia Pintscher (Hier, auch im en:chat verlinkt) Meine Anmerkungen dazu:

  1. "Is the data going to be used?" Für welche unserer Daten trifft das denn zu? Kaum welche, imho. Ansonsten finde ich die Kriterien vernünftig. Was mir fehlt ist in Bezug auf den Import großer Daten, dass wir da auch selber aktiv werden könnten. Beispielsweise könnten wir gut Statistiken gebrauchen, die z.B. in den indischen Sprachen und in englisch formuliert sind. Hätten wir bots für den import, könnten wir so große Wissenslücken füllen und attraktiver werden. Ein sich bereits abzeichnendes Problem ist nämlich, dass Sprachinseln entstehen, die mangels Sprachkentniss nicht miteinander verbunden sind. Ohne "Rosettasteine" geht da gar nichts.
  2. "ensure high quality of the data" - "Many eyes on the data" Imho müssen wir uns das Ansehen abschminken. Sinnvoller wäre es sich zu überlegen, ob so etwas wie eingebaute Redundanz möglich ist. Können Daten so strukturiert werden, dass die vorhandene Redundanz automatisierte Korrekturen möglich machen? Also nicht erst Daten anlegen und sich dann Kontrollen überlegen, sondern genau andersherum. Ich glaube im Zeitalter von big data müsste das ein wichtiges Problem auch außerhalb von Wikidata sein. Ich hatte mich zB in der WP gegen das Entfernen von Daten aus den Infoboxen ausgesprochen gehabt. Stattdessen sollte eine Differenz zwischen Infobox und Wikidata Aktivitäten anstoßen. Einige Wikipedias haben im sehr kleinen Maßstab bereits derartiges, allerdings müssen Leute da per Hand ran. Handarbeit ist aber unproduktiv, wird uns Freiwilligen nicht bezahlt und ist vergeudete Lebenszeit. Wichtig für Wikidata ist auch, dass sich dafür schwer Leute finden lassen und somit die Qualität der Daten begrenzt bleiben wird.
--Molarus 01:40, 4 January 2015 (UTC)
Ich habe eher den Eindruck dass Wikidata etwas unter der langsamen Softwareentwicklung leidet (wir warten eigentlich noch immer auf recht grundlegende Dinge wie Abfragen). Auch die lockerheit der Wikipedia anfänge fehlt, die Strukturen die in der Wikipedia organisch gewachsen sind wurden hier mit copy und paste übernommen. Eigentlich wäre mal die Zeit das die Community mal über ein paar grundlegende philosophische Fragen diskutiert. --FischX (talk) 10:10, 4 January 2015 (UTC)
Die große Forderung nach Bequellung aller Objekte wurde auf mehrere Weisen erschwert: Anfangs gab es noch keine Qualifikatoren und jetzt wo sie da sind, sind sie sehr unbequem zu nutzen. Man muss z. B. extra ein Objekt anlegen, auf das man dann verlinken kann. Es sollte ein Bot die kompletten Kataloge von einigen Nationalbibliotheken und großen Unibibliotheken einpflegen, dann sollten die Funktionen für die Eingabe von Belegen so vereinfacht werden, dass ein Beleg nur noch wenige Mausklicks braucht. Soll heißen, es müsste bei der Eingabe des Qualifikators ein kontextsensitives Fenster aufgehen, mit der man die Quelle wie in einer Katalogsuche finden kann und per Mausklick übernehmen, sodann sollten die passenden Felder automatisch aufgehen und nach Band (sofern nötig) und Seitenzahl fragen. Die Benutzer sollten sich hauptsächlich um die Ontologie und die Übersetzung sorgen und die Anlage von Objekten zu Quellen den Bots überlassen, die könnten dann auch regelmäßig prüfen, ob die Angaben in den Katalogen konsistent sind miteinander und mit Wikidata. So findet man Fehler und problematische Edits oder Vandalismus und so würde die Bequellung sehr vereinfacht. Es ist unrealistisch, dass die Benutzer 20 Millionen Objekte permanent über ihre Beobachtungsliste im Auge haben können.--Giftzwerg 88 (talk) 12:41, 5 January 2015 (UTC)
Die Einpflege eines großen Datenbestands steht ja momentan mit freebase an. Ich könnte nicht sagen wie man das sinnvoll macht. Alleine schon weil ich keine Ahnung habe welche Daten es überhaupt bei freebase gibt. Bei Buchkatalogen wäre zumindest klar was da für Infos vorliegen. Ich könnte mir vorstellen, dass es sinnvoll wäre so etwas mal testweise für einige hundert Daten zu machen und daraus zu lernen. Wichtig wäre auch daran zu denken, dass diese Kataloge voller Dopplungen, Fehler, etc. sind. Meine Erfahrung mit der Eingabe von Belegen ist begrenzt, aber tools dafür wären sicher hilfreich. Ich selber hatte mangels Interesse in der de:WP meine Arbeit an einem innovativen Lua-Modul eingestellt. Stattdessen versuche ich momentan eine Programmiersprache für Wikidata-tools zu entwickeln. Die Alternative dazu ist die Programmierung von bots, mit der ich mich aber noch nie befasst habe. Beim Massendatenimport werden wir uns die Werkzeuge dafür selber erstellen müssen. Es ist sinnvoll so etwas nicht auf Bitschubser-Ebene zu realisieren, sondern möglichst weit oben. --Molarus 13:25, 5 January 2015 (UTC)
Freebase ist schon länger verlinkt und i. a. ist da nicht mehr zu lesen als in Wikiartikeln. Eigenschaft Freebase ID (P646) ist über 1 Million mal verlinkt.--Giftzwerg 88 (talk) 17:38, 5 January 2015 (UTC)
@Giftzwerg 88: Ganze Kataloge muss man zum Glück nicht importieren, um den Nachweis von Quellen zu erleichtern. Es reicht eine Funktion wie sie LibraryThing (Q742640) bereits seit langem besitzt. Dort kann man einen Buchtitel bequem in mehreren Onlinekatalogen parallel suchen und die Daten mit einem Klick importieren. --Kolja21 (talk) 17:04, 5 January 2015 (UTC)
Und diese Funktion gibt es auf Wikidatat wie und wo?--Giftzwerg 88 (talk) 17:50, 5 January 2015 (UTC)
Ich denke mit der Bequellung beschäftigt man sich mit einem IMHO unwichtigen Randthema - es geht in Wirklichkeit um Datenqualität - zum einen wird es für manche Dinge in der Struktur nie eine Quelle benötigen (Quelle für Produkt von Schuhfabrik sind Schuhe und Max Müller ist ein Mann z.B. quelle nicht notwendig oder zumindest eine Fleißaufgabe) zum anderen haben reine Offlinequellen einen zunehmend geringen Wert im Gegenteil gab es da schon schöne Kämpfe in der Wikipedia um erfundene Referenzen zu wiederlegen. Wenn Daten aus z.B. OGD Datenbanken synkronisiert werden haben sie automatisch eine gute Quelle. Man kann unbequelltes derzeit auch als Platzhalter für bequelltes betrachten. Die ultimative Qualität ist eine Unmöglichkeit, es geht um die höchst mögliche und oft ist ein Gerücht mehr Information als nichts. Wenn es darum geht die Qualität zu sichern müsste die segmentierung in Datenblöcke Vorrang haben und quasi bevorzugt große Datensilos angezapft werden - wenn man z.B. Einwohnerzahlen als einzelne verteilte Fragmente einpflegt wirds bei der Wartung mehr schmerzen geben als wie wenn man die PD-Datenbank der UN als ganzes einspielt. Auch erleichtern mehr Daten die Plasibilitätsprüfung (z.B. wenn alle Bushaltestellen von Berlin bis ins kleinste Detail erfasst sind und die Zahl dieser mit der Zahl der von einer Quelle der Stadt übereinstimmt hat man ein Datum hoher Qualität, die sonst auch bei so reputablen Quellen bescheiden ist. Was noch viel wichtiger ist sind statistische Auswertungsmechanismen - mit Datamining fallen 300 Jahre alte Opernsänger und hauptberufliche Pornodarsteller um 399 vor unserer Zeitrechnung schneller auf als bei jeder noch so strengen Eingangskontrolle. --FischX (talk) 01:09, 6 January 2015 (UTC)--
Genau :) Deshalb arbeite ich jetzt mit Studenten um die Constraint Violation Reports zu verbessern und das Überprüfen gegen andere Datenbanken zu automatisieren. Ich hoffe das bringt uns sehr viel weiter. --Lydia Pintscher (WMDE) (talk) 17:41, 7 January 2015 (UTC)
Molarus: Ich meine mit many eyes nicht unbedingt, dass wir uns jeden Datenpunkt einzeln anschauen müssen. Das sehe ich auch eher unrealistisch. Es geht mehr darum die Daten die wir haben vor so viele Menschen wie möglich zu bringen eben zum Beispiel durch die Nutzung in Wikipedias Infoboxen. Hoffe das macht es etwas klarer. --Lydia Pintscher (WMDE) (talk) 17:37, 7 January 2015 (UTC)

Lydia Pintcher hat kürzlich diesen tweet verlinkt. Es geht dabei um ein demnächst bekannt gemachtes Programm, welches Daten aus MusicBrainz und Wikidata vergleicht (nur das oder auch andere weiß ich nicht). Hier die Seite zu John Lennon. Daten zu vergleichen ist das eine, aber da fängt es erst an. Was wenn ein Vergleich eine Differenz entdeckt? Ich hatte properties für interne Informationen vorgeschlagen gehabt als Ergänzung zu irgendwo liegende Fehlerlisten. Bin gespannt wie das hier gelöst wird. Und die hier im Kapitel aufgeworfene Frage ist, wie kann man Daten von z.B. MusicBrainz bei uns integrieren ohne deren Daten abzusaugen? Nach dem hier kann man die Daten wie bei uns maschinenlesbar bekommen. Eine "echte" Integration wäre es, wenn wir properties auf Daten in MusicBrainz setzen könnten, denn dann könnte diese Info auch in der WP verwendet werden. Bei uns ist im Moment nur "Imagine" als Werk (p800) im item vorhanden. Richtig fair erscheint mir das nicht, eher so wie Google das macht. Auch ein zweiseitiger Datenaustausch wäre positiv. --Molarus 18:48, 6 January 2015 (UTC)

Lydia widmet sich in ihrem Beitrag m.E. bewußt nicht den technischen Details („I will not go into the details of technical scaling here but instead focus on the social scaling.“) sondern der sozialen Komponente. Ich würde es vllt. so ausdrücken: Wie zum Teufel können wir für ein ziemlich technisches Projekt Benutzer so begeistern, dass sie ein Auge darauf haben und ggf. beitragen.
Zu den technischen Details: Auch sehr gute Datenquellen (Datenbank, Übersichtsartikel etc.) enthalten häufig Fehler. Es gibt also immer die Möglichkeit wir liegen falsch oder die. Das angesprochene „Tool“ macht wohl nur darauf aufmerksam das etwas nicht stimmt. Bei einem Wikipedia-Artikel lässt sich das leichter korregieren als in einer externen Datenbank (geht auch).
Diese CC0-Zuwendung der The European Library (Q240304) sollte das Erstellen von Belegen um einiges einfacher machen, aber wie gestalten wir die Zuordnung auf unsere Eigenschaften? --Succu (talk) 22:52, 6 January 2015 (UTC)
--Succu (talk) 22:52, 6 January 2015 (UTC)
Mit der European Library ist es dasselbe wie mit MusicBrainz: Wie kann man die Daten zum beiderseitigen Nutzen verwenden, ohne den anderen auszubeuten. Ich habe diese Seite gefunden. Der russische Name hat mich zum item Q4109332 geführt, zu dem wir keine englische Übersetzung des item-Namens habe. In der European Library wird der Name dagegen genannt. Die Frage wäre nur wie man derartige Informationen aus der Datenbank heraus und bei uns hinein bekommt? Ich glaube diese Info bei uns zu verwenden wäre OK, wenn wir gleichzeitig den Text in der European Library im item verlinken würden, weil mit dem englischen Namen der Text besser erschlossen wird. Vielleicht wäre das ein Kriterium um Daten aus externen Quellen zu übernehmen? Ansonsten möchte ich darauf hinweisen, dass das etwas ist mit dem die Entwickler sich nicht beschäftigen wollen, es ist unsere Aufgabe. PS: Zum Thema Fehler fällt mir z.B. ein, dass wir eine json-Datei entwickeln könnten, wo die Fehler und unsere Korrekturen aufgeführt sind und wir die regelmäßig an mit uns kooperierenden Organisationen geben könnten. Ich hätte auch so eine Datei gerne von Google, aus ihren Fehlermeldungen vom Knowledge Graph. --Molarus 04:06, 7 January 2015 (UTC)
Was Musicbrainz angeht: Ich kenne die sehr gut. Ist abgesprochen ;-) Und ich sehe es absolut nicht als ausnutzen um ehrlich zu sein. Zum einen benutzen sie unseren Daten auch. Und zum anderen werden ihre Daten ja dadurch auch besser. Wenn ein Fehler bei ihnen vorliegt fällt der ja dadurch hoffentlich auch auf. Aber du hast schon recht. Wir müssen auf ausgewogene Beziehungen achten. --Lydia Pintscher (WMDE) (talk) 17:44, 7 January 2015 (UTC)
Mir war das Thema andere Autoren nicht auszubeuten schon als Wikipedia-Autor wichtig. So habe ich nie ein Buch neben die Tastatur gelegt und den WP-Artikel daraus "umformuliert". In Zeiten in denen ständig Plagiatsaffären bekannt werden, sollte das so nicht gemacht werden (auch wenn das rechtlich OK sein mag). Ich glaube externe Datenbanken zur Entdeckung von Fehlern zu nutzen, ist OK, wenn man die Fehler- und Korrekturlisten zurück gibt (win-win-Situation). Und externe Datenbanken zu nutzen, um eine Info besser auffindbar zu machen, scheint mir auch OK, wenn die externe Datenbank verlinkt ist, da das auch eine win-win-Situation ist. (Es mag weitere Situationen geben) Aber z.B. massenhaft Personendaten zu übernehmen, würde mir nicht gefallen, da ich weiß wie viel Arbeit es macht die aufzutreiben. Ich finde es dabei unerheblich, wenn eine Datenbank der massenhaften Datenübername zustimmt. Wikipedia erlaubt das z.B., aber wohl niemand findet die WP-Artikel-Kopien gut, die als teure Fachbücher auf Amazon als Print-on-demand verkauft werden. Woher hatte nun ich meine Daten für meine WP-Artikel? Die reinen Daten hatte ich natürlich auch irgendwo abgeschrieben, dazu kam aber noch die Überprüfung der Info mit möglichst vielen Quellen. Nicht selten hat sich dabei ergeben, dass die Daten komplexer sind als bei einem reinen Abschreiben zu erkennen gewesen wäre. Ein gutes Beispiel ist die Quadratmetergröße eines Landes. Entgegen der Annahme ändert die sich ständig und bei unterschiedlichen Messverfahren kommen unterschiedliche Zahlen heraus. Enzyklopädisch gesehen ist also eine Zahl ohne diesen Kontext ungenau (egal auf wie viele Nachkommastellen genau sie gemessen oder berechnet wurde). Was folgt nun aus alledem? Ich finde wir sollten eine Regelung (Gentleman-Agreement) für den Umgang mit externen Datenbanken aufstellen. Politisch gesehen scheint mir das auch eine gute Sache zu sein, da das die Weiterverbreitung von freien Lizenzen befördern könnte, da dann weniger Angst vor einem unkontrolliertem Massen-Abfluss von Content besteht. Kann mir gut vorstellen, dass das ein wichtiges Thema bei Gesprächen mit GLAM-Institutionen ist. PS: Wäre sicher interessant gewesen das mit de:Aaron Swartz zu diskutieren. PPS: Im blog wird eigentlich die Übergabe von Datenbanken an uns thematisiert. Ein Grund könnte ähnlich dem von Museen sein, die ständig Angebote von Erbschaften bekommen: Niemand will eine Sammlung von Büchern, Bildern, Daten, etc. wegwerfen. --Molarus 23:53, 7 January 2015 (UTC)
Gentleman Agreement finde ich super! Wie könnte sowas aussehen? Was würde drin stehen? Und der Vergleich mit Erbschaften an Museen ist treffend. Hatte da noch nicht dran gedacht aber im Prinzip ist es ein sehr ähnliches Problem. --Lydia Pintscher (WMDE) (talk) 09:36, 8 January 2015 (UTC)
Zum Thema wie zeigen wir Inkonsistenzen auf: Ich plane im Moment 2 Wege. Zum einem auf dem Item selbst. Beim betreffenden Statement sollte es einen Indikator geben, dass damit eventuell etwas nicht stimmt. Und zum anderen sollte es eine Special Page geben um sich alle Inkonsistenzen anzeigen lassen zu können. --Lydia Pintscher (WMDE) (talk) 17:46, 7 January 2015 (UTC)
Redundanz, Vergleichen, Auswählen sind die Stichworte. Also grundsätzlich ist Sicherung der Qualität nur mit Hilfe von Redundanz möglich (zugleich auch Sicherung der Dateninhalte). Mich erinnert das sehr stark an den doppelten Chromosomensatz in der Vererbung. Zwei Chromosomen sichern, dass jede Information (mindestens) zwei mal vorkommt und ein Fehler = Gendefekt wirkt sich nur dann negativ aus, wenn beide Chromosomen den selben Fehler haben. Zur optimalen Sicherung brauchen wir also mindestens zwei Datenbanken und es muss auf irgendeine Weise sichergestellt sein (z. B. durch bestimmte Bearbeitungsregeln), dass nicht ungeprüft die Informationen von der einen Datenbank zur anderen wandern und wieder zurück. Zirkelstrukturen machen es unmöglich, einen erkannten Fehler aus einem System herauszuhalten, weil falsche Infos verbreitet sind, somit auch fehlerhafte Quellen. Wir brauchen eine Mutter und einen Vater, für ein gesundes Kind, dabei dürfen Mutter und Vater keine nahen Verwandten sein. Nur so ist eine gesunde Datenstruktur möglich. Wir müssen beide Daten vergleichen können und dabei gibt es mehrere Möglichkeiten:
  1. beide Quellen stimmen 100% oder nahe 100% überein: Kein Grund zum Jubeln, denn beide Quellen stammen wahrscheinlich von der gleichen Quelle ab.
  2. beide Quellen sagen etwas ähnliches aber nicht genau das selbe: Ein gutes Zeichen, denn dann sind die beiden Quellen unabhängig voneinander.
  3. beide Quellen sagen unterschiedliches, das aber nicht zwangsläufig ein Widerspruch bildet: ähnlich wie Fall zwei, möglicherweise ergänzen sich beide optimal
  4. beide Quellen sagen etwas radikal unterschiedliches. Entweder passen die beiden Quellen nicht zueinander (beispielsweise mehrere Personen mit dem selben Namen), oder es ist eine Quelle falsch
Wir sehen dass es keinen Fall gibt, bei dem man von vornherein auf grün stellen kann. Wir müssen sicherstellen, dass Wikidata zwar überall saugen kann, dass aber die Quellen nicht ihrerseits ungeprüft bei Wikidata saugen.--Giftzwerg 88 (talk) 18:11, 7 January 2015 (UTC)
Hehe der Vergleich mit dem Chromosomensatz ist gut. So sehe ich das auch. --Lydia Pintscher (WMDE) (talk) 18:29, 7 January 2015 (UTC)
Es ist auch wie bei der Viehzucht: man muss die "Blutlinien" auseinanderhalten, sonst schreibt jeder nur von jedem ab, ein Teufelskreis, wenn es um die Weitertradierung von Fehlern geht. Dann haben wir Inzucht und unser Kind wird schwachsinnig wie Google. Kurzfristig wird das nicht auffallen, aber langfristig wird die Qualität immer schlechter, mal auf hundert Jahre oder mehr gedacht. Es ist ja jetzt schon kaum mehr möglich, Informationen zu einem Thema zu finden, die nicht von der Wikpedia abhängig sind.
Falls es soweit kommt, dass z. B. im großen Stil Infoboxen in Artikeln von WD aus gefüllt werden und die gleiche Information im Fließtext auch zu finden ist, so haben wir eine einfache und leicht prüfbare Redundanz zwischen Infobox (=Daten aus Wikidata) und Wikiartikel, eine die auch einem Laien im Diskrepanzfall sofort auffällt. Ein Scherzbold müsste dann z. B. sowohl WD als auch dewiki verändern, wobei dann aber möglich ist, dass fawiki die Infobox auch hat und es dürfte schwer fallen, es dort auch noch zu ändern. Der Einsatz von Constraints ist auch ein sehr wirksames Mittel gegen unabsichtliche oder oder absichtliche Fehler. Das könnte man noch viel mehr ausbauen. Es gibt bereits eine Seite, die alle constraints bündelt, wir sind aber noch nicht so weit, dass die bestehenden Lücken und Fehler auch nur annähernd erledigt sind. Es fehlen z. B. bei Personenartikel noch tausende von Grunddaten. Unser Datenmodell ist auch noch zu blöd um z. B. einem Zwillingspaar einen Geburtstag zuzuweisen (oder zwei), Wikidata bzw. die Constraints verkraften auch noch nicht, dass Menschengruppen auch Tätigkeiten ausüben oder eine gemeinsame Sprache haben können. Ein anonymes Werk hat nicht den Verfasser "Anonymus", sondern "unbekannter Wert" und der Verfasser Pseudohieronymus ist zwar eine Person, vielleich aber auch zwei Personen oder mehr, jedoch ohne Geburtstag, Angehörige oder einem Begräbnisort.
Wikipedia von Wikidata aus zu befüllen reduziert die Redundanz enorm und Infos aus dem Text zu nutzen ist technisch sehr schwierig. Ein weiterer Grund nicht einfach Daten aus Wikidata in WP anzuzeigen, ist, dass wohl Korrekturen von Gelegenheitseditoren in den 200+ Wikipedias gemacht werden, aber eher nicht in Wikidata. Ich bin mir auch nicht sicher ob wir Vandalen nach WD lotsen sollten. Ich wäre deshalb dafür Wikipedia als Teil eines Redundanz-Managements eine eigene Rolle zu gewähren. Bei dem Lua-Modul hatte ich mir ein "Ampelsystem" für Infoboxen überlegt gehabt, mit dem im WP-Artikel die Zusammenarbeit von Infobox und Wikidata vom WP-Autor individuell eingestellt werden kann. Mit bots könnten wir auch regelmäßig die Infoboxen auf Korrekturen abfragen und so Artikel wie eine externe Datenbank zur Qualitätsverbesserung von Wikidata nutzen.
Eine Special Page um sich alle Inkonsistenzen anzeigen zu lassen ist eine offensichtliche Lösung, nur fürchte ich das die schnell überlastet werden wird. Ich würde sie deshalb nicht entwickeln, stattdessen fände ich es besser, wenn eine mögliche Inkonsistenz in den Infoboxen angezeigt werden könnte. Nichts macht einen Korrektur-edit wahrscheinlicher als die Bitte sich eine möglicherweise fehlerhafte Info anzusehen. Ich habe mir kürzlich den knowledge graph von Google angesehen. So wie ich den dort verwendeten feedback-button verstehe, teilt man Google die fehlerhafte Info mit, indem man erst den button und als zweites die fehlerhafte Info anklickt. Ist wahrscheinlich patentiert, so gut ist die Idee. --Molarus 00:46, 8 January 2015 (UTC)
Infos aus Fließtext zu nutzen ist die Form, wie ein Mensch Infos zusammenträgt. Einfache Bots sind dafür nicht gemacht. Es gibt sicherlich hochentwickelte Programme, die sowas können, ich vertraue aber in dieser Form keinen Maschinen. Dann könnten wir einen Computer losschicken, der die gesamten Bestände von gescannter Literatur durchsucht und daraus die Datenbank generiert. Das sehe ich aber nicht als Option für eine Verbesserung der Qualität, vielmehr wäre dann das gesamte Projekt überflüssig, dann bauen sich die Maschinen die Datenbank selbt zusammen und andere Maschinen nutzen die Infos um wieder daraus Artikel herzustellen, die ihrerseits wieder auf Daten für die Datenbank abgesucht werden. Ich locke auch keine Vandalen nach Wikidata, es handelt sich vielmehr um eine besondere Form von Vorlagen. Vorlagen werden auch auf Wikipedia bisher nur sehr selten ein Ziel von Vandalismus. Vorlagen sind ein Mittel zur Reduktion von Redundanz, von sinnloser Redundanz, von leerer Redundanz im Idealfall. Verbesserung durch Redundanz heißt nicht, dass ich ein Problem durch Erstellen von Kopien lösen kann. Das hilft nicht, wenn ich von WD oder WP auf hundert Webseiten Kopien habe. Ein Problem, das nicht offensichtlich Vandalismus ist, sondern möglicherweise eine falsche oder unpräzise Information ist durch Kopien nicht zu lösen, wird dadurch eher vervielfältigt. Lösen kann ich es nur, wenn ich unabhängige Quellen finde, die entweder die Sache bestätigen oder als Fehler entlarven. Ich muss dauerhaft sicherstellen, dass die Info in meiner Quelle keine Daten aus Wikiprojekten bezieht. Beispiel: Jemand erfindet eine neue Art von Korallen, gibt ihnen eine existierende Gattung und kopiert die Quellenangaben aus einer anderen Art der selben Gattung. Wenn jetzt das neue Standardwerk zur Systematik von Korallen herauskommt und der Autor Wikidata benutzt, um auch wirklich alle bekannten Arten zu erfassen, haben wir die Korallenart im Standardwerk. Jetzt kommt irgendwo ein Wissenschaftler drauf, dass es diese Art nicht gibt, sondern eine Erfindung. Diese Person wird es sehr schwer haben, diese von einem Standardwerk belegte Koralle irgendwie wieder aus WD löschen zu lassen und wenn doch, kann nichts verhindern, dass irgendwer diese Korallenart neu anlegt. Redundanz heißt mehrere von einander unabhängige Quellen, nicht mehrere Kopien der selben Quelle.--Giftzwerg 88 (talk) 05:14, 8 January 2015 (UTC)
Das unabhängige Quellen wichtig sind, bestreite ich nicht, nur welche Folgerungen sollte das für Wikidata haben? Wir können nicht verhindern, dass die von uns verwendeten Quellen mittels Abschreiben auch an anderer Stelle genutzt werden und wir das wegen fehlender Quellenangabe nicht merken. Da nur eine Differenz der Daten zu Aktivität führt, bedeutet dass, je mehr bei uns abgeschrieben wird, umso weniger nützlich wird ein Datenabgleich mit einer externen Datenbank. Sprich: Keine Datendifferenz zu haben, heißt nicht fehlerfrei zu sein. Deshalb ist auch der Input von IPs so wichtig, da die ihr Wissen eher weniger aus externen Quellen, sondern aus der eigenen Anschauung haben. Die eigene Anschauung ist übrigens auch eine gute Quelle. Wir verlieren diesen Input, wenn wir erwarten dass diese Leute nach Wikidata kommen. Selbst in einem WP-Artikel zu editieren stellt schon eine enorme Hürde dar, weshalb es ja auch die Diskussionsseiten in der Wikipedia gibt. --Molarus 12:01, 8 January 2015 (UTC)
Mein Plädoyer geht dahin, dass wir Quellen auf ihre Vorgehensweise der Informationsbeschaffung abklopfen. Wir sollten keine Quellen akzeptieren, die ihre Infos hauptsächlich mit Hilfe von Suchmaschinen aus verschiedenen Webseiten zusammenholen wie z. B. Freebase. Da ist vorprogrammiert, dass auch Infos von einer Mirrorseite dort landen. Links dorthin OK, aber Freebase-Inhalte einbauen? Da rollen sich die Zehennägel! Bisher war Z. B. die GND eine gute Quelle, wenn die aber anfangen sich blind auf Wikidata zu verlassen und die Inhalte standardmäßig dort herholen, dann ist das problematisch, wenn wir GND weiterhin als zuverlässige Quelle haben wollen. Zur dauerhaften Sicherung der Qualität von Wikidata ist es also unabdingbar, dass die Quellen keine ungeprüften Inhalte aus WD oder WP übernehmen. Alle heutigen Telefonbücher enthalten eine gewisse Zahl von falschen Einträgen, also z. B. Namen von Personen, die schon fünfzehn Jahre weggezogen sind, mit einer Telefonnummer, die zu einem ganz anderen Anschluss gehört. Diese sind absichtlich drin, damit der Telefonbuchverlag prüfen kann, ob jemand sein Telefonbuch abschreibt. Vielleicht sollte man solche wechselnden "Marker" in WD auch haben und bot-generiert prüfen, ob diese in den Quellen ebenfalls auftauchen, um über die Qualität urteilen zu können.--Giftzwerg 88 (talk) 14:40, 8 January 2015 (UTC)
Wie wärs mit peer-reviewten Zeitschriftenartikeln? Für die Taxonomie der Tiere habe ich die beiden Bände Animal Biodiversity: An Outline of Higher-level Classification and Survey of Taxonomic Richness (Q18642816) und Animal Biodiversity: An Outline of Higher-level Classification and Survey of Taxonomic Richness (Addenda 2013) (Q18642812) der Zeitschrift Zootaxa (Q220370) ausgewertet. Mit den Informationen werde ich den nächsten Wochen und Monaten die entsprechenden Datenobjekte bequellen und fehlende erstellen. Später werden die erstellten Bäume meinen Bot als redundante Quelle dienen, anhand derer er prüft ob noch alles in bester Ordnung ist. --Succu (talk) 15:29, 8 January 2015 (UTC)
Genau so sollte es funktionieren. Nicht statt dessen Wikispecies verwenden. Die Botaktion ist der zweite Strang in der DNA, deine genannten Publikationen das andere Chromosom, um im Vergleich zu bleiben. Wenn WD richtig gut ist, kommen dann bei den Botläufen nicht nur die Fehler in WD, sondern auch die Fehler/veralteten Daten in den Publikationen zum Vorschein.--Giftzwerg 88 (talk) 16:12, 8 January 2015 (UTC)
Ich habe wegen der Lizenz bei ZOOTAXA (hier) nachgesehen: Es ist Creative Commons Attribution 3.0 Unported License. Ich habe nachgesehen was das heißt und bin auf dies gestoßen: "Sie müssen angemessene Urheber- und Rechteangaben machen, einen Link zur Lizenz beifügen und angeben, ob Änderungen vorgenommen wurden." Wie das bei Wikidata gehen soll, weiß ich nicht. Ich weiß auch nicht wie das zusammen passt mit unserer CC0 1.0-Lizenz (siehe Wikidata:Einführung). --Molarus 21:28, 8 January 2015 (UTC)
@Molarus: Was genau sollte bei meinem Vorgehen nicht zusammenpassen? Daten werden nirgends übernommen, sondern lediglich mit einer (reputablen) „Quelle“ belegt.
@Giftzwerg 88: Das Projekt Wikispecies (Q13679) hat wohl schon immer am eigenen Ast gesägt. Zumindest war es in der deutschspachigen Wikipedia nie wohlgelitten.
--Succu (talk) 21:44, 8 January 2015 (UTC)
Du schriebst: "Mit den Informationen werde ich (...) Datenobjekte bequellen und fehlende erstellen." Fehlende Datenobjekte lizenzkonform zu übernehmen scheint mir nicht trivial zu sein. Ich könnte mir vorstellen, das es in der WP dazu Lösungen gibt und die müssen irgendwie mit Properties nachgebastelt werden. Könnte mir vorstellen, dass ein Reference-tool hier hilfreich wäre. --Molarus 22:46, 8 January 2015 (UTC)
Man ist sich schon länger einig, dass der Wortlaut einer Quelle geschützt ist im Sinne des Urheberrechts, dass jedoch die einzelnen Inhalte (Fakten=Eigenschaften) nicht geschützt sind, soll heißen dass man aufgrund einer Quelle alle Informationen "stehlen" und in ein Objekt bringen kann, ohne eine URV zu begehen. WD hat keinen Fließtext, Tabellen und Listen sind eh nicht geschützt, mangels Schöpfungshöhe, mit einem Verweis auf die Quelle ist der Lizenz mehr als genüge getan, es wäre dieses jedoch nicht gesetzlich gefordert.--Giftzwerg 88 (talk) 10:45, 9 January 2015 (UTC)
Das ist das rechtliche Mindestniveau, wir sollten ein höheres Nievau ansteuern. Bsw. haben wir p405 (Autor(en) des Taxons). Die Biologen haben also ein eigenes System für derartige Probleme.
Ich habe gesehen, dass Succu bei Wikidata:WikiProject Taxonomy aktiv ist und deshalb kennt er die richtigen Properties. Darüber muss hier also nicht diskutiert werden. Wichtig ist mir, dass das richtig gemacht wird, weil sonst hunderte neuer Fehlermeldungen auf den Constraint violations der properties landen und das jemand nacharbeiten muß oder wertvolle Info nicht mit nach Wikidata kommt. Wie ich weiter oben schrieb, wird eine Info erst mit ihrem Kontext richtig wertvoll. PS: Bei den references sollte man auch berücksichtigen wie die in der Wikipedia angezeigt werden. Ich weiß nicht ob es in den verschiedenen Wikipedias bei diesem Thema einheitliche Darstellungsweisen gibt. Wenn nicht sollte es möglich sein ein Wikidata-Modul so zu konfigurieren, dass der lokalen Regel zur Darstellung entsprechen werden kann. Meines Wissens können die Wikidata-Module das noch nicht, aber irgendwann sicher.
Imho zeigt die Diskussion hier, das Datenübernahme im großen Stil mehr ist als nur einen bot zu programmieren und in Betrieb zu setzen. --Molarus 17:26, 9 January 2015 (UTC)
Ich bin im Wesentlichen und mein Bot ausschließlich im Bereich der Taxonomie der Lebewesen unterwegs. taxon author (P405) und ex taxon author (P697) sind eigentlich nur eine spzielle Form den author (P50) eines taxon name (P225) zu benennen. Im Idealfall wird taxon name (P225) mit der Primärquelle der first valid description (Q1361864) oder recombination (Q14594740) und zusätzlich durch mit solider Sekundärliteratur belegt. Die Constraint violations im Bereich der Taxonomie der Lebewesen sind mittlerweile überschaubar und werden in der Regel zeitnah gefixt.
Wie die Möglichkeiten von Help:Sources ausgenutzt und konkret formatiert werden, muss jede WP für sich entscheiden. In deWiki haben auf diesem Gebiet einge rührige Benutzer. Hier gibt es Ansätze dazu im Module:Cite, das aus dem Module:Taxobox ausgelagert wurde. --Succu (talk) 18:49, 9 January 2015 (UTC)
Ich habe mir mal die Verwendung einer Zootaxa-Quelle in der en:WP und in der de:WP angesehen: en:Argasidae und de:Nanderbarsche. Im enWiki werden die Vornamen ausgeschrieben, im deWiki nicht. Also sollte in Wikidata der Vornamen ausgeschrieben werden, weil er später noch gekürzt werden kann. In der en:WP gibt es einen Link auf das pdf, in der de:WP nicht, also sollte der Link da sein. Usw. Dass im deWiki der Name des Artikels kursiv geschrieben wird oder die Jahreszahl am Ende, in der en:WP aber hinter dem Titel steht, sind dagegen Formatierungen, die im lokalen Wikidata-Modul gelöst werden sollten. Mag sein, dass andere Wikipedias noch weitere Anforderungen an eine gute Bequellung stellen, als multiWikiprojekt muss Wikidata möglichst alle Anfordeung der Wikipedias an gute Bequellung erfüllen. Bin sicher, dass ich dir da nichts neues sage, aber aus eigener Erfahrung weiß ich, dass aus einer solchen Diskussion, wie wir sie hier führen, auch später noch Nutzen von anderen Leuten gezogen werden kann. --Molarus 20:16, 9 January 2015 (UTC)
Molarus, jetzt verlassen wir wohl endgültig diesen „Faden“. Und mit Verlaub: Du verlierst dich hier gerade in belanglosen Details. Schönen Abend --Succu (talk) 20:25, 9 January 2015 (UTC)

Eingemeindungen etc. ... Anpassung der Daten neben de:wikipedia und OSM auch in Wikidata?

Im Projekt OpenStreetMap (OSM) beschäftige ich mich viel mit administrativen Grenzen und deren Strukturen, ebenso mit den dortigen Anpassungen der OSM-Daten zu den immer mal vorkommenden Gebietsveränderungen wie Kreisreformen oder Eingemeindungen in Deutschland. Eine immer sehr aktuelle Übersicht findet sich dazu unter [1]. Dazu weckte jetzt auch zunehmend der entsprechende Datenbestand in Wikidata mein Interesse. Generelle Frage dazu: Gibt es irgendeinen Automatismus, welcher bei z.B. Eingemeindungen und deren Umsetzung in de:wikipedia auch die Daten in Wikidata anpasst? Oder ist da zwingend Handarbeit angesagt? Falls Handarbeit: brauchen wir dann in der o.g. Wikipedia-Auflistung für jede relevante Änderung (neben "erfasst in OSM?") auch noch den Merker "erfasst in Wikidata?" --Stephan75 (talk) 18:39, 5 January 2015 (UTC)

Mein Wissensstand ist, dass es derartige Automatismen nicht gibt. Ich glaube sogar, dass noch nicht mal per Hand korrigiert wird. In der Regel wurden die Daten irgendwann einmal aus irgendeiner Wikipedia hier her übertragen und das war es dann. Die Wikipedia löst dieses Problem durch Handarbeit, aber das können wir nicht leisten, da Wikidata jetzt schon 12 Mio Artikel hat. Wir müssen das also alles automatisiert machen, aber dazu fehlen uns noch die Werkzeuge und die automatisiert abfragbaren Quellen. Imho stehen wir noch ganz am Anfang bei sehr vielen Problemen. --Molarus 13:32, 6 January 2015 (UTC)

Gebäudedetails eintragen

Hallo, auf welche Art und Weise könnte man Gebäudedetails wie bspw. die Dachform eines Gebäudes in den jeweiligen Datensatz einfügen? --Pustekuchen2014 (talk) 20:13, 9 January 2015 (UTC)

Ich habe mir die in de:Dachform genannten Artikel in Wikidata angesehen und wie sie verwendet werden. Es scheint die zwei Verwendungen zu geben: Q1967885 (Material: Kupfer, betroffener Teil: Helm) und Q1410335 (besteht aus Zwiebelturm). Beide Verwendungen werden aber als fehlerhaft angezeigt (auf der Disk des properties wird erläutert wie ein property verwendet werden soll). Bei Material scheint mir das aber daran zu liegen, dass Kupfer nicht als Material gekennzeichnet ist. Ich fürchte, da musst du inovativ werden, wenn du Infos angeben willst, die über das hinaus geht, als mit den schon vorhandenen Properties in diesem Bereich geht. Diese findest du auf Wikidata:List_of_properties/Geographical_feature/de#Geb.C3.A4ude_oder_Bauwerk. --Molarus 20:36, 9 January 2015 (UTC)
Beispielsweise als neue Eigenschaft „Dachform” vom Typ Datenobjekt mit den in de:Dachform aufgezählten Datenobjekten als zulässige Werten. --Succu (talk) 20:50, 9 January 2015 (UTC)

(Nicht-)Erkennen von Vandalismus

Wenn ich mir beispielsweise den Vandalismus vom 16. September 2014 in artificial pond (Q3253281) anschaue, frage ich mich, wie viele andere Items noch solchen Unfug enthalten. Die Einführung der gesichteten Versionen ist wohl kein Thema, oder? --Leyo 11:07, 12 January 2015 (UTC)

Habe ich auch schon mal angesprochen, wohl nicht. Vandalismus kommt allerdings wirklich selten vor. Manchmal lästig zu behebende Fehler. Man kann da aber schon mit leben.--Oursana (talk) 12:00, 12 January 2015 (UTC)
Ich würde die gesichteten Versionen prinzipiell auch unterstützen. In einem multilingualen Projekt wie diesem ist es nämlich wirklich schwierig, Vandalismus zuverlässig zu erkennen, da ja keiner auch nur einen grösseren Teil der unterstützten Sprachen beherrscht. Gleichzeitig ist Vandalismus hier potentiell viel mächtiger als in anderen Projekten, weil ein falsches Datum theoretisch nicht nur in einem Artikel auftaucht, sondern vielleicht in hunderten in zig Projekten. Aber es ist tatsächlich fraglich, ob wir die Manpower hätten, Wikidata halbwegs aktuell zu halten und gleichzeitig zu sichten. Und der meiste Vandalismus betrifft Labels (wenn sie denn mal eingesetzt werden wird das ziemlich offensichtlich sein) oder Beschreibungen (sollten ausserhalb Wikidatas keine Rolle spielen und innerhalb Wikidatas ziemlich offensichtlich sein). Dort wo er Aussagen betrifft, gibt es, und wird es in zunehmenden Maßen geben, eine Selbstheilungskraft von Wikidata - ändere ich beispielsweise das Geschlecht einer Person von männlich auf Eichhörnchen (auch ein typischer Wikidata-Vandalismus), wird ein Constraint Report Alarm schlagen, und ändere ich es auf weiblich, wird das zumindest dann der Fall sein, wenn die Person als Vater oder Bruder von irgendjemandem angegeben ist.
Ansonsten sind wir gerade erst dabei, Vandalismusbekämpfungskompetenz aufzubauen. So wird jetzt etwa User:Pasleim/Vandalism regelmässig aktualisiert, während User:KrBot/Lost links (noch so ein typischer Vandalismus hier) seit einiger Zeit von User:LinkRecoveryBot automatisch unterstützt wird (hmm, der tut zur Zeit gar nichts mehr?!). Und wir warten immer noch darauf, dass Wikidata-Änderungen in der erweiterten Beobachtungsliste der anderen Wikimedia-Projekte angezeigt werden können, was der Vandalismusbekämpfung sicher einen grossen Schub gäbe. --YMS (talk) 12:18, 12 January 2015 (UTC)
Wäre sowas wie en:Special:Contributions/ClueBot NG ggf. umsetzbar?
Deinen letzten Satz verstehe ich nicht. Wikidata-Änderungen können ja z.B. in der WP-Beobachtungsliste angezeigt werden. Oder beziehst du dich nur auf die erweiterte Beobachtungsliste? Leider können dort Bots und registrierte Benutzer bei Bedarf nicht ausgeblendet werden (analog zu lokalen Änderungen). --Leyo 20:21, 12 January 2015 (UTC)
Ich meinte die Option "Änderungen auf „Letzte Änderungen“ und der Beobachtungsliste nach Seite gruppieren". Wer die aktiviert hat, kriegt keine Wikidata-Änderungen mit (kann aber ansonsten ein- und ausblenden was er will). --YMS (talk) 07:49, 13 January 2015 (UTC)
OK. Ob's zu meinem zweiten Punkt schon einen Bug gibt, weiss ich nicht. --Leyo 12:32, 13 January 2015 (UTC)
Konkret: Weshalb hat der Parameter hideliu=1 (registrierte Benutzer verbergen) keine Wirkung auf Änderungen bei Wikidata? --Leyo 20:29, 14 January 2015 (UTC)

Stand eigentlich schonmal in irgendeiner Umfrage/RfC zur Option IPs von der Mitarbeit hier auszuschließen? (wenn das technisch möglich wäre unter Ausscchluss der Bearbeitungen an Interwikilinks von Wikipedia aus) Ja es kommt vor, dass IPs auch mal einen sinnvollen Edit hinterlassen, aber die gefühlte Mehrheit der Bearbeitungen sind doch nur Vandalismus.--CENNOXX (talk) 10:52, 15 January 2015 (UTC)

Einen offiziellen RfC dazu gab es noch nicht, aber diskutiert wurde das sicher schon. Ich finde das übrigens durchaus überlegenswert, da auch ich das Verhältnis Nutzen/möglicher Schaden von IP-Edits hier ziemlich anders sehe als z.B. bei der Wikipedia. Ganz ausschliessen würde ich die unangemeldeten Benutzer aber wohl nicht wollen. Ich denke, beim Hinzufügen von Sitelinks, Labeln und Statements sind IPs schon sehr nützlich, aber vielleicht wäre es auf Dauer dem Projektziel förderlich, sie am Ändern und Entfernen derselben zu hindern. --YMS (talk) 11:35, 15 January 2015 (UTC)
Würde dies denn technisch überhaupt gehen? --Leyo 23:27, 17 January 2015 (UTC)

In anderen Sprachen

Wie kann ich hier die Sprachen verändern? Offenbar ist Englisch standard, daneben hätte ich aber gern Französisch und Italienisch, weil in meinen Fachbereichen wichiger, als die derzeitigen Niederdeutsch und Mainfränkisch. Und kann ich die Zahl von 3 Sprachen erhöhen? Marcus Cyron (talk) 16:30, 17 January 2015 (UTC)

@Marcus Cyron: Setz dir auf deine Benutzerseite eine Babelbox: {{#babel:de|en-3|nl-2}} (das sind meine Sprachen). Es sollten auch mehr als 3 gehen. Raymond (talk) 18:10, 17 January 2015 (UTC)
Ich habe 7 Sprachen und das klappt problemlos, die "errechneten Sprachen" verschwinden dann ebenfalls, wenn sie nicht als Babel gesetzt sind. Vermutlich kannst du auch hundert Babelsteine setzen. Aktiviere das Helferlein "Labellister", dann kannst du auch Bezeichnung, Beschreibung und Alternativnamen in allen anderen Sprachen sehen, soweit es sie gibt und natürlich auch bearbeiten, ohne deine Sprache für die Benutzeroberfläche ändern zu müssen.--Giftzwerg 88 (talk) 19:56, 17 January 2015 (UTC)

Danke für die Info! Das ist ja - einfach und klug gemacht, man muß es nur wissen! :) Marcus Cyron (talk) 14:34, 18 January 2015 (UTC)

Labellister sollte für meinen Geschmack eine standardmäßige Funktion sein. --Giftzwerg 88 (talk) 15:00, 18 January 2015 (UTC)

Gehört irgendwie aufgedröselt. Ist eine kassische Interwiki-Situation wo eine allgemiene Beschreibungsseite auf Begriffserklärungsseiten trifft. Stell das jetzt mal hier ab zwecks konsistenter Vorgehenssweise. --FischX (talk) 06:55, 19 January 2015 (UTC)

Für den Begriff gibt es jetzt ein eigenes Objekt:
campaign (Q679087) - BKL
campaign (Q18812548) - Begriff
political campaign (Q847301)
Jetzt müsste man noch alle Links überprüfen ... --Kolja21 (talk) 08:21, 19 January 2015 (UTC)

Eigenschaft "URL" lässt sich nicht speichern

Kann jemand bitte für Q1386570: Programmchef Joachim Thielen die folgende URL als Nachweis hinzufügen:

Ich habe versucht, die URL als Einzelnachweis abzuspeichern, erhalte aber (unter Chrome) die Meldung: "Beim Speichern ist ein Fehler aufgetreten." --Soundcloudberlin (talk) 11:46, 19 January 2015 (UTC)

Erledigt. Scheint ein temporäres Problem gewesen zu sein.--Giftzwerg 88 (talk) 11:50, 19 January 2015 (UTC)

Designänderung INTERWIKI

Die gestrige/heutige Änderung ist nicht gelungen. Es gibt ja keine sichtbaren Felder zum Eintragen mehr. Vermissen tue ich einen "interwiki hinzufügen" Knopf. Ist einfach benutzerunfreundlich sich zuerst durch die gesammelten Boteinträge(französische Gemeinden) herunterzuhangeln. --Eingangskontrolle (talk) 21:04, 13 January 2015 (UTC)

Naja es gibt jetzt einfach einen Bearbeiten-Link für die (Interwikilinks zu) Wikipedia und dann wird schon im Feld nach der zu verlinkenden Website „gefragt“. --Diwas (talk) 22:11, 13 January 2015 (UTC)

Das war doch schon vorher so und zwar besser. Jetzt ist das so eng zusammengedrückt, das es kein Feld zum Eintrag des Lemmas mehr gibt. Und cut&paste funktioniert auch nicht, da muß man erst den letzten Buchstaben entfernen, bevor irgendein Hamster das "Speichern" freigibt. --Eingangskontrolle (talk) 16:28, 14 January 2015 (UTC)

+1 - ganz miese Änderung. Benutzerunfreundlicher geht es kaum. Marcus Cyron (talk) 16:31, 17 January 2015 (UTC)
Bevor ihr hier nur rumnörgelt, es gib diverse Sachen, die derzeit in der Mache sind und die Benutzeroberfläche wird derzeit komplett umgebaut. Diveres Funktionen müssen dazu auch einmal in der freien Wildbahn getestet werden. Wir werden vermutlich eine Reihe verschiedener Zwischenstufen haben, bevor die neue Benutzeroberfläche da sein wird. Für alle, die an Bezeichnung und Beschreibung arbeiten, ist die neue Form ein Segen, weil man nicht erst eine halbe Stunde nach unsten scrollen muss, bis man sieht wie der Artikel heißt und den Link klicken kann. Die neue Oberfläche wird sicherlich deutlich besser aussehen, als die momentanen Versionen. Das platzsparende Layout nutzt breitere Bildschirme viel besser aus.--Giftzwerg 88 (talk) 19:17, 17 January 2015 (UTC)

Man muss runterscrollen, bis man eine neue Verlinkung einfügen kann (das ist wohl derzeit die häufigste Anwendung). Und es ist schlicht nicht genug Platz in der Spalte. Wenn man es nicht weiss, sieht man kein Feld zum Eintragen, weil nämlich keines da ist. Übrigens kommt man von bestimmten Sprachversionen auf ein vollkommen separates Popup und nicht auf Wikidata. Das ist narrensicher. --Eingangskontrolle (talk) 15:38, 21 January 2015 (UTC)

Der häufigste Fall sind Eingabe von Bezeichnung und Beschreibung in zig Sprachen (das alleine braucht braucht bei 200 Sprachen 2x 15Mio x 200 = 6 Mrd edits + ein paar Millionen Aliasse), was zum größten Teil von Hand gemacht werden muss. Das kann man aber nur effektiv, wenn man die Namen der Wikiartikel sofort sehen kann. Da sind in aber in der alten Version erst mal die Eingabefelder für andere Sprachen und dann die Eigenschaften. Man kann so nicht mit drag und drop z. B. Eigennamen von den Wikiartikeln kopieren. Die Links zu den Wikiartikeln sind dagegen nur wenige, die wenigsten Sprachen haben mehr als 100.000 Artikel und das allermeiste davon ist von Bots erledigt worden. --Giftzwerg 88 (talk) 16:59, 24 January 2015 (UTC)

Eigenschaft gesucht: Unternehmen im DAX-30

Gerne würde ich die Zugehörigkeit der Unternehmen im DAX-30 oder anderen Aktienindexen in Wikidata eingeben. In de-wiki gibt es dazu eine Navigationsleiste und auch eine entsprechende Kategorie, aber in en-wiki habe ich zu einem S&P 500 Aktienindex eine entsprechende Liste. Ich würde aber in Wikidata Aussagen der Art BASF (Q9401) part of (P361) DAX (Q155718) vorschlagen. Ist das okay? (war längere Zeit nicht mehr in Wikidata aktiv...) --Zuphilip (talk) 07:06, 22 January 2015 (UTC)

Welcome back! part of (P361) scheint in Ordnung zu sein, zumindest wird diese Eigenschaft auch für S&P 500 Unternehmen verwendet, siehe z.B. Pfizer (Q206921) --Pasleim (talk) 08:30, 22 January 2015 (UTC)
Danke für die Begrüßung und die schnelle Antwort. Interessant werden diese Daten wenn man die Start- und Endzeitpunkte angibt. Da dies aber mehrfach auftreten kann, bin ich mir nicht sicher, wie die Eingabe gewünscht ist. Beispielsweise habe die die aktuelle Zugehörigkeit und die Historie bei Continental AG (Q163241) versucht anzugeben. Ist das okay so? --Zuphilip (talk) 13:46, 22 January 2015 (UTC)
ist alles bestens --Pasleim (talk) 14:03, 22 January 2015 (UTC)