Semantic search

Jump to navigation Jump to search
Condition
Printout selection
Options
Parameters [
limit:

The maximum number of results to return
offset:

The offset of the first result
link:

Show values as links
headers:

Display the headers/property names
mainlabel:

The label to give to the main page name
intro:

The text to display before the query results, if there are any
outro:

The text to display after the query results, if there are any
searchlabel:

Text for continuing the search
default:

The text to display if there are no query results
embedformat:

The HTML tag used to define headings
embedonly:

Display no headings
Sort options
Delete
Add sorting condition
SQLStore debug output
ASK Query
[[Category:Blog post]] [[Published::+]]
SQL Query
SELECT DISTINCT
  t0.smw_id AS id,
  t0.smw_title AS t,
  t0.smw_namespace AS ns,
  t0.smw_iw AS iw,
  t0.smw_subobject AS so,
  t0.smw_sortkey AS sortkey, t0.smw_sort
FROM
  `smw_object_ids` AS t0
INNER JOIN
  (`smw_fpt_inst` AS t2
INNER JOIN
  `smw_di_time` AS t4 ON t2.s_id=t4.s_id) ON t0.smw_id=t2.s_id
WHERE
  (t2.o_id='550'
   AND (t4.p_id='532')
  )
  AND t0.smw_iw!=':smw'
  AND t0.smw_iw!=':smw-delete'
  AND t0.smw_iw!=':smw-redi'
ORDER BY
  t0.smw_sort ASC
LIMIT
  55
OFFSET
  10
SQL Explain
IDselect_typetabletypepossible_keyskeykey_lenrefrowsExtra
1SIMPLEt2refs_id,o_id,s_id_2,o_id_2o_id_25const585Using index; Using temporary; Using filesort
1SIMPLEt0eq_refPRIMARY,smw_id,smw_iw,smw_iw_2PRIMARY4bitnami_mediawiki.t2.s_id1Using where
1SIMPLEt4refs_id,p_id,p_id_2,s_id_2s_id8bitnami_mediawiki.t2.s_id,const1Using index; Distinct
Auxilliary Tables
No auxilliary tables used.
Query Metrics
Query-Size:2
Query-Depth:1
Errors and Warnings
None

7 Jahre

Heute sind es genau sieben Jahre, dass ich diese Website eröffnet habe. Und heute wird sie umbenannt! In den letzten Wochen stellte ich die Software vollständig auf Semantic MediaWiki um, welches es mir deutlich einfacher erlaubt, die Seite zu pflegen als jemals zuvor.

In den nächsten Wochen will ich langsam, aber sicher, die alten Inhalte, die seit einem Hacker-Angriff auf Nodix verschwunden sind, wieder hochladen.

Eine wichtige Änderung gibt es freilich (nicht die Hintergrundfarbe, die ist geblieben): der Name der Website wurde geändert. Kein Nodix mehr, ab jetzt heißt die Seite Simia. Und ihr werdet merken, viele der Seiten sind Englisch, andere Deutsch. Einfach auch, weil inzwischen vieles von dem was ich mache, Englisch ist. Ich hoffe, dass das nicht abschreckt. Es sind ja dennoch noch viele Deutschsprachige Inhalte vorhanden.

Und was leider noch nicht funktioniert, ist das Kommentieren, sorry. Das heißt, vorübergehend ist das nur per Email möglich. Ich arbeite dran.

A bitter, better lesson

Rich Sutton is expressing some frustration in his short essay on computation and simple methods beating smart methods again and again.

Rodney Brooks answers with great arguments on why this is not really the case, and how we're just hiding human ingenuity and smartness better.

They're both mostly right, and it was interesting to read the arguments on both sides. And yet, not really new - it's mostly rehashing the arguments from The unreasonable effectiveness of data by Alon Halevy, Peter Norvig, and Fernando Pereira ten years ago. But nicely updated and much shorter. So worth a read!

A blog for the AIFB

Although I blogged here about the AIFB as well - the great place I am working at - Jens Hartmann suggested to create an own, dedicated AIFB-Blog on ontoworld. It's in beta still, kind of. We hope that other AIFB-people will blog there as well, and so keep you up to date with AIFB-stuff, blog about our papers, workshops, conference attendances, break-through results, but also the great weather in Karlsruhe and stories that happened here.

So, while I will still continue to post on the Semantic Web here, the more workplace related stuff will be found there: at the new AIFB-Blog.

A conspiracy to kill a browser

Great story about how YouTube helped with moving away from IE6.

"Our most renegade web developer, an otherwise soft-spoken Croatian guy, insisted on checking in the code under his name, as a badge of personal honor, and the rest of us leveraged our OldTuber status to approve the code review."

I swear that wasn't me. Although I would have loved to do it.

(first published on Facebook March 12, 2024)

A new decade?

The job of an ontologist is to define concepts. And since I see some posts commenting on whether a decade is closing and a new decade is starting tonight, here's my private, but entirely official position.

A decade is a consecutive timespan of ten years, and therefore at every given point a new decade starts and one ends. But that's a trivial answer to the question and not very useful.

There are two ways to count calendar decades, and both are arbitrary and rely on retconning, I mean, they really on redefining the past. Therefore there is no right or wrong.

Method one is by using the proleptic Gregorian calendar, and starting with the year 1 and ending with the year 10, and calling that the first decade. If you keep counting, then the twohundredandthird decade will start on January 1st 2021, and we are currently firmly in the twohundredandsecond decade, and will stay there for another year.

Method two is based on the fact that for a millennium now and for many years to come there's a time period that conveniently lasts a decade where the years start with the same three digits. That is, the years starting with 202, which are called the 2020s, the ones with 199 which are called the 1990s (or sometimes just the 90s), etc. For centuries now we can find support for these kind of decades being widely used. According to this method, tonight marks a new decade.

So whether you are celebrating a new year tonight or not (because there are many other calendars out there too), or a new decade or not, I wish you wonderful 2020s!

A new site is born

Ein neuer nutkidz-Comic, wie stets, pünktlich an einem neuen Donnerstag.

Zudem steht zu vermelden, dass die DSA4 Werkzeug-Website endgültig selbstständig geworden ist und auf eine eigene Seite mit eigenem Webspace, eigener Domain usw. umgezogen ist: die neue Adresse lautet darkeyetool.sourceforge.net - sie wird aber stets über www.nodix.de/dsa4 erreichbar bleiben, wie bisher auch. Ach ja, es ist hübsch dieser Website nachzuschauen, wie sie eigenständig wird, zu einer richtigen, eigenen Seite... *schnüff*. Dazu hat sie auch noch ein komplettes Redesign erhalten, und sieht jetzt richtig gut aus. Da kann man sehen, dass ich doch eine Ahnung von Webdesign habe, bislang aber bloß zu spartanisch bin, um es hier auf Nodix zu verwenden (*ich* mag diesen supersimplen Stil von Nodix!).

A quick draft for a curriculum for Computer Science

The other day, on Facebook, I was asking the question who would be the person closest to being a popularizer for ideas in Computer Science to the wider audience, which lead to an interesting and insightful discussion.

Pat Hayes asked what I would consider the five (or so) core concepts of Computer Science. Ernest Davis answer with the following short list (not in any particular order):

  1. Virtual machine
  2. Caching
  3. Algorithm
  4. Data structure
  5. Programming language

And I followed up with this drafty, much longer answer:

  1. how and why computation works; that a computation is a mapping from your problem domain into some machine state, then we have some automatic movement, and the result represents an answer to your question; that it is always layers of interpretation; that it doesn't matter whether the computing machine is made of ICs or of levers, marbles, and gravity (i.e. what is a function); that computation is always real and you can't simulate computation; what can be done with computation and what cannot; computational thinking - this might map to number 1 in Ernest's list
  2. that everything can be represented with zeros and ones, but doesn't have to be; it could also be represented by A and B and Cs, and many other ways; that two states are simply convenient for electric devices; that all information, all data, all input to all computation, and the steps for computations themselves are represented with zeros and ones (i.e. the von Neumann architecture and binary encoding); what can be represented in this paradigm and what cannot - this might map to number 4 in Ernest's list
  3. how are functions encoded; how many different functions can have the same results; how wildly different in efficiency functions can be even when they have the same result; why that makes some things quick to calculate whereas others take a long time; basically smearing ideas from lambda calculus and assembler and building everything from NAND circuits; why this all maps to higher level languages such as JavaScript - this might map to ideas from 2, 3, and 5 on Ernest's list
  4. bringing it back to the devices; where does, physically, the computation happen, where is physically the data stored, and why it matters in terms of privacy, equity, convenience, economics, interdependence, even freedom and independence; what kind of computations and data storage we can expect to have in our mobile phones, in a data center, in an RFID card; how long the turnaround times are in each case; how cryptography works and what kind of guarantees it can provide; why centralization is so alluring and what the price of that might be; and what might be the cost of computation for the environment
  5. given our times, and building on the previous lessons, what is the role of machine learning; how does it actually work, why does it work as good as it does, and why does it not work when it doesn't and where can't it work; what does this have to with "intelligence", if it does; what becomes possible because of these methods, and what it costs; why these methods may reinforce inequities; but also how they might help us with significantly increasing access to better health care for many people are allow computers to have much more intuitive interfaces and thus democratize access to computing resources

I think the intuitions in 1, 2, and maybe 3 are really the core of computer science, and then 4 and 5 provide shortcuts to important questions four ourselves and society that, I think, would be worthwhile for everyone to ponder and have an informed understanding of the situation so that they can meaningfully make relevant decisions.

A sermon on tolerance and inclusion

Warning: meandering New Year's sermon ahead, starting at a random point and going somewhere entirely else.

I started reading Martin Kay's book on Translation, and I am enjoying it quite a bit so far. Kay passed away August 2021. His work seems highly relevant for the work on Abstract Wikipedia.

One thing that bummed me though is that for more than a page in the introduction he rants about pronouns and how he is going to use "he" to generically mean both men and women, and how all other solutions have deficits.

He culminates in the explanation: "Another solution to this problem is which is increasing in popularity, is to use both 'he' and 'she', shifting between them more or less randomly. So we will sometimes get 'When a translator is confronted with a situation of this kind, she must decide...'. The trouble with this is that some readers, including the present writer, reacts quite differently to the sentence depending on which version of the generic pronoun it contains. We read the one containing 'he' smoothly and, all else being equal, assimilate the intended meaning. Encountering the one with 'she', on the other hand, is like following a television drama that is suddenly interrupted by a commercial."

Sooo frustratingly close to getting it.

I wish he'd had just not spent over a page on this topic, but just used the generic 'he' in the text, and that's it. I mean, I don't expect everyone born more than eighty years ago to adjust to the modern usage of pronouns.

Now, I am not saying that to drag Kay's name through dirt, or to get him cancelled or whatever. I have never met him, but I am sure he was a person with many positive facets, and given my network I wouldn't be surprised if there are people who knew him and can confirm so. I'm also not saying that to virtue signal and say "oh man, look how much more progressive I am". Yes, I am slightly annoyed by this page. Unlike many others though, I am not actually personally affected by it - I use the pronoun "he" for myself and not any other pronoun, so this really is not about me. Is it because of that that it is easy for me to gloss over this and keep reading?

So is it because I am not affected personally that it is so easy for me to say the following: it is still worthwhile to keep reading his work, and the rest of the book, and to build on top of his work and learn from him. The people we learn some things from, the influences we accept, they don't have to be perfect in every way, right? Would it have been as easy for me to say that if I were personally affected? I don't know.

I am worried about how quickly parts of society seems to be ready to "cancel" and "call out" people, and how willing they are to tag a person as unacceptable because they do not necessarily share every single belief that is currently regarded as a required belief.

I have great difficulties in drawing the line. Which beliefs or actions of a person should be sufficient grounds to shun them or their work? When JK Rowling doubles down on her stance regarding trans women, is this enough to ask everyone to drop all interest in the world she created and the books she wrote? Do we reshoot movie scenes such as the cameo of Donald Trump in Home Alone 2 in order to "purify" the movie and make it acceptable for our new enlightened age again? When Johnny Depp was accused of domestic abuse, does he need to be recast from movies he had already been signed on? Do we also need to stop watching his previous movies? Do the believable accusations of child abuse against Marion Zimmer Bradley mean that we have to ignore her contributions to feminist causes, never mind her books? Should we stop using a font such as Gill Sans because of the sexual abuse Erjc Gill committed against his daughters? Do we have to stop watching movies or listen to music produced by murderers such as OJ Simpson, Phil Spector, or Johnny Lewis?

I intentionally escalated the examples, and they don't compare at all to Kay's defence of his usage of pronouns.

I offer no answers as to where the line should be, I have none. I don't know. In my opinion, none of us is perfect, and none of our idols, paragons, or example model humans will survive the scrutiny for perfection. This is not a new problem. Think of Gandhi, Michael Jackson, Alice Schwarzer, Socrates - no matter where you draw your idols from, they all come with imperfections, sometimes massive ones.

Can we keep and accept their positive contributions - without ignoring their faults? Can we allow people with faults to still continue to contribute their skills to society, or do we reduce them to their faults and negatives? Do we have to get someone fired for tweeting a stupid joke? Do we demand perfection by everyone at all time?

Or do we allow everyone to be human, make and have errors, and have beliefs many don't deem acceptable? Committing or causing actions resulting from these beliefs? Even if these actions and beliefs hurt or endanger people, or deny the humanity of others? We don't have to and should not accept their racism, sexism, homo- and transphobia - but can and should we still recognise their other contributions?

I am worried about something else as well. By pushing out so many because of the one thing they don't want to accept in the basket of required beliefs, we push them all into the group of outsiders. But if there are too many outsiders, the whole system collapses. Do we all have to have the same belief on guns, on climate, on gender, on abortion, on immigration, on race, on crypto, on capitalism, on housing? Or can we integrate and work together even if we have differences?

The vast majority of Americans think that human-caused climate change is real and that we should act to avoid it. Only 10% don't. And yet, because of the way we define and fence our in- and outgroups, we have a strong voting block that repeatedly leads to outright sabotage to effective measures. A large majority of Americans support the right to abortion, but you would never be able to tell given the fights around laws and court cases. Taxing billionaires more effectively is highly popular with voters, but again these majorities fizzle away and don't translate to the respective changes in the tax code.

I think we should be able to work together with people we don't agree with on everything. We should stop requiring perfection and alignment on all issues before moving forward. But then again, that's what I am saying, and I am saying it from a position of privilege, am I not? I am male. I am White. I am heterosexual. I am not Muslim or Jewish. I am well educated. I am not poor. I am reasonably technologically savvy. I am not disabled. What right do I have at all to voice my opinion on these topics? To demand for acceptance people with beliefs that hurt or endanger people who are not like me. Or even to ask for your precious attention for these words of mine?

None.

And yet I hope that we will work together towards progress on the topics we agree on, that we will enlighten each other on the topics we disagree on, and that we will be able to embrace more of us on our way into the future.

P.S.: this post is problematic and not very well written, and I recognise that. Please refer to the discussion about it on Facebook.

ACM Review

ACM Computing Reviews reviewed our paper on the Semantic Wikipedia. Yay! Pitily, I can't read the review because I need a login.

Would love to see what they're saying, but I guess it's not meant to be open to the public. Or to the authors.


Comments are still missing on this post.

ACM Review II

Thanks to Mary-Lynn Bragg for answering my complaint about non-accessible reviews so quickly. She sent me the review to read, and I was quite happy with it. Michael Lesk, one of the guys who built Unix, wrote the review, and recommended it to "designers of volunteer or collaborative systems and [...] those studying cooperative work." Thanks, Michael, thanks Mary-Lynn.

Sooo -- read our straightforward and easy to read paper! :)

By the way -- I still think ACM Computing Reviews should offer their reviews for free to the public. This would increase the impact of their reviews dramatically, and also the impact of the reviewed papers.

AI and role playing

An article about AI and role playing games, and thus in the perfect intersection of my interest.

But the article is entirely devoid of any interesting content, and basically boils down to asking the question "could RPGs be a Turing test for AI?"

I mean, the answer is so painfully obviously "yes" that no one ever bothered to write it down. I mean, Turing wrote the test as a role playing game basically!

AI is coming, and it will be boring

I was asked about my opinion on this topic, and I thought I would have some profound thoughts on this. But I ended up rambling, and this post doesn’t really make any single strong point. tl;dr: Don’t worry about AI killing all humans. It’s not likely to happen.

In an interview with the BBC, Stephen Hawking stated that “the development of full artificial intelligence could spell the end of the human race”. Whereas this is hard to deny, it is rather trivial: any sufficiently powerful tool could potentially spell the end of the human race given a person who knows how to use that tool in order to achieve such a goal. There are far more dangerous developments - for example, global climate change, the arsenal of nuclear weapons, or an economic system that continues to sharpen inequality and social tension?

AI will be a very powerful tool. Like every powerful tool, it will be highly disruptive. Jobs and whole industries will be destroyed, and a few others will be created. Just as electricity, the car, penicillin, or the internet, AI will profoundly change your everyday life, the global economy, and everything in between. If you want to discuss consequences of AI, here are a few that are more realistic than human extermination: what will happen if AI makes many jobs obsolete? How do we ensure that AIs make choices compliant with our ethical understanding? How to define the idea of privacy in a world where your car is observing you? What does it mean to be human if your toaster is more intelligent than you?

The development of AI will be gradual, and so will the changes in our lifes. And as AI keeps developing, things once considered magical will become boring. A watch you could talk to was powered by magic in Disney’s 1991 classic “The Beauty and the Beast”, and 23 years later you can buy one for less than a hundred dollars. A self-driving car was the protagonist of the 80s TV show “Knight Rider”, and thirty years later they are driving on the streets of California. A system that checks if a bird is in a picture was considered a five-year research task in September 2014, and less than two months later Google announces a system that can provide captions for pictures - including birds. And these things will become boring in a few years, if not months. We will have to remind ourselves how awesome it is to have a computer in our pocket that is more powerful than the one that got Apollo to the moon and back. That we can make a video of our children playing and send it instantaneously to our parents on another continent. That we can search for any text in almost any book ever written. Technology is like that. What’s exciting today, will become boring tomorrow. So will AI.

In the next few years, you will have access to systems that will gradually become capable to answer more and more of your questions. That will offer advice and guidance towards helping you navigate your life towards the goal you tell it. That will be able to sift through text and data and start to draw novel conclusions. They will become increasingly intelligent. And there are two major scenarios that people are afraid of at this point:

  1. That the system will become conscious and develop their own intentions and their own will, and they will want to destroy humanity: the Skynet scenario from the Terminator movies.
  2. That the system might get a task, and figure out a novel solution for the task which unfortunately wipes out humanity. This is the paperclip scenario— an AI gets the task to create paperclips, and kills all humans by doing so — , which has not yet been turned into a blockbuster.

The Skynet scenario is just mythos. There is no indication that raw intelligence is sufficient to create intrinsic intention or will.

The paperclip scenario is more realistic. And once we get closer to systems with such power, we will need to put the right safeguards in place. The good news is that we will have plenty of AIs at our disposal to help us with that. The bad news is that discussing such scenarios now is premature: we simply don’t know how these systems will look like. That’s like starting a committee a hundred years ago to discuss the danger coming from novel weaponry: no one in 1914 could have predicted nuclear weapons and their risks. It is unlikely that the results of such a committee would have provided much relevant ethical guidance for the Manhattan project three decades later. Why should that be any different today?

In summary: there are plenty of consequences of the development of AI that warrant intensive discussion (economical consequences, ethical decisions made by AIs, etc.), but it is unlikely that they will bring the end of humanity.

Further reading

Published originally on Medium on December 14, 2014

AIFB OWL tools

Working with ontologies isn't yet as easy as it could be - especially because the number of little helpers is still far too small. After having written dlpconvert and owlrdf2owlxml (the tool with the maybe most clumsy name in the history of the Semantic Web) I noticed how easy it would be to write some more tools based on Boris' KAON2 OWL ontology infrastructure.

And so I went ahead. First I integrated dlpconvert and owlrdf2owlxml (or short, r2x) in it, then I added a simple ontology dumper and axiom and entity counter. Want to know how many individuals are in your ontology? Simply type owl count myontology.owl -individual, and there you go. Want a list of all Classes? Try owl print myontology.owl -owlclass. It's as easy as that.

I'm totally aware that this functionality maybe isn't worth the effort of building a tool for. But this is just a beginning: I want to add more functionality to filter, merge, compare and much more to it. The point is, at the end having a handy little set of OWL tools you can work with. I miss that really with OWL, and now here it is. At least, a beginning.

Grab your copy now of the AIFB OWL Tools.

AKTS 2019

September 24 was the AKTS workshop - Advanced Knowledge Technologies for Science in a FAIR world - co-located with the eScience and Gateways conferences in San Diego. As usual with my trip reports, I won't write about every single talk, but offer only my own personal selection and view. This is not an official report on the workshop.

I had the honor of kicking off the day. I made the proposal of using Wikidata for describing datasets so that dataset catalogs can add these descriptions to their indexes. The standard way to do so is to use Schema.org annotations describing the datasets, but our idea here was to provide a fallback solution in case Schema.org cannot be applied for one reason or the other. Since the following talks would also be talking about Wikidata I used the talk to introduce Wikidata in a bit more depth. In parallel, I kicked the same conversation off on Wikidata as well. The idea was well received, but one good question was raised by Andrew Su: why not add Schema.org annotations to Wikidata instead?

After that, Daniel Garijo of USC's ISI presented WDPlus, Wikidata Plus, which presented a prototype for how to extend Wikidata with more data (particularly tabular data) from external data sources, such as censuses and statistical publications. The idea is to surround Wikidata with a layer of so-called satellites, which materialize statistical and other external data into Wikidata's schema. They implemented a mapping languages, T2WDML, that allows to grab CSV numbers and turn them into triples that are compatible with Wikidata's schema, and thus can be queried together. There seems to be huge potential in this idea, particularly if one can connect the idea of federated SPARQL querying with on-the-fly mappings, extending Wikidata to a virtual knowledge base that would be easily several times its current size.

Andrew Su from Scripps Research talked about using Wikidata as a knowledge graph in a FAIR world. He presented their brilliant Gene Wiki project, about adding knowledge about genes and proteins to Wikidata. He presented the idea of using Wikidata as a generalized back-end for customized frontend-applications - which is perfect. Wikidata's frontend is solid and functional, but in many domains there is a large potential to improve the UX for users in specific domains (and we are seeing some if flowering more around Lexemes, with Lucas Werkmeister's work on lexical forms). Su and his lab developed ChlamBase which allows the Chlamydia research community to look at the data they are interested in, and to easily add missing data. Another huge advantage of using Wikidata? Your data is going to live beyond the life of the grant. A great overview of the relevant data in Wikidata can be seen in this rich and huge and complex diagram.

The talks switched more to FAIR principles, first by Jeffrey Grethe of UCSD and then Mark Musen of Stanford. Mark was pointing out how quickly FAIR turned from a new idea to a meme that was pervasive everywhere, and the funding agencies now starting to require it. But data often has issues. One example: BioSample is the best metadata NIH has to offer. But 73% of the Boolean metadata values are not 'true' or 'false' but have values like "nonsmoker" or "recently quitted". 26% of the integers were not parseable. 68% of the entries from a controlled vocabulary were not. Having UX that helped with entering this data would be improving the quality considerably, such as CEDAR.

Carole Goble then talked about moving towards using Schema.org for FAIRer Life Sciences resources and defining a Schema.org profile that make datasets easier to use. The challenges in the field have been mostly social - there was a lot of confidence that we know how to solve the technical issues, but the social ones provide to be challenging. Carol named four of those explicitly:

  1. ontology-itis
  2. building consensus (it's harder than you think)
  3. the Schema.org Catch-22 (Schema.org won't take it if there is no usage, but people won't use it until it is in Schema.org)
  4. dedicated resources (people think you can do the social stuff in your spare time, but you can't)

Natasha Noy gave the keynote, talking about Google Dataset Search. The lessons learned from building it:

  1. Build an ecosystem first, be technically light-weight (a great lesson which was also true for Wikipedia and Wikidata)
  2. Use open, non-proprietary, standard solutions, don't ask people to build it just for Google (so in this case, use Schema.org for describing datasets)
  3. bootstrapping requires influencers (i.e. important players in the field, that need explicit outreach) and incentives (to increase numbers)
  4. semantics and the KG are critical ingredients (for quality assurance, to get the data in quickly, etc.)

At the same time, Natasha also reiterated one of Mark's points: no matter how simple the system is, people will get it wrong. The number of ways a date field can be written wrong is astounding. And often it is easier to make the ingester more accepting than try to get people to correct their metadata.

Chris Gorgolewski followed with a session on increasing findability for datasets, basically a session on SEO for dataset search: add generic descriptions, because people who need to find your dataset probably don't know your dataset and the exact terms (or they would already use it). Ensure people coming to your landing site have a pleasant experience. And the description is markup, so you can even use images.

I particularly enjoyed a trio of paper presentations by Daniel Garijo, Maria Stoica, Basel Shbita and Binh Vu. Daniel spoke about OntoSoft, an ontology to describe software workflows in sufficient detail to allow executing them, and also to create input and output definitions, describe the execution environment, etc. Close to those in- and output definition we find Maria's work on an ontology of variables. Maria presented a lot of work to identify the meaning of variables, based on linguistic, semantic, and ontological reasoning. Basel and Binh talked about understanding data catalogs deepers, being able to go deeper into the tables and understand the actual content in them. If one would connect the results of these three papers, one could potentially see how data from published tables and datasets could become alive and answer questions almost out of the box: extracting knowledge from tables, understanding their roles with regards to the input variables, and how to execute the scientific workflows.

Sure, science fiction, and the question is how well would each of the methods work, and how well would they work in concert, but hey, it's a workshop. It's meant for crazy ideas.

Ibrahim Burak Ozyurt presented an approach towards question answering in the bio-domain using Deep Learning, including Glove and BERT and all the other state of the art work. And it's all on Github! Go try it out.

The day closed with a panel with Mark Musen, Natasha Noy, and me, moderated by Yolanda Gil, discussing what we learned today. It quickly centered on the question how to ensure that people publishing datasets get appropriate credit. For most researchers, and particularly for universities, paper publications and impact factors are the main metric to evaluate researchers. So how do we ensure that people creating datasets (and I might add, tools, workflows, and social consensus) receive the fair share of credit?

Thanks to Yolanda Gil and Andrew Su for organizing the workshop! It was an exhausting, but lovely experience, and it is great to see the interest in this field.

ARS Ludis veröffentlicht

So, liebe rollenspielende Fangemeinde, hier die versprochene Überraschung: nein, keine neue Version des DSA4 Werkzeugs, sondern ein komplett neues Rollenspiel!

ARS Ludis - ein kostenloses Rollenspielsystem. Michael Ruckaberle initiierte es, und mit der Hilfe einiger Wackerer erstellte er ein offenes Rollenspielsystem und möchte es nun an die breitere Öffentlichkeit bringen. Schaut es Euch an - es lohnt sich allemal! Und er sucht nach Mitarbeitern und Testspielern. Wenn also irgendjemand Interesse daran hat, das Rollenspiel zu fördern - meldet Euch bei Michael!

P.S.: Nach besorgten Rückfragen sei kurz erwähnt: Schwesterchen geht es wieder gut.

Ab nach Bielefeld

So, heute geht es noch nach Bielelfeld, nur mal schnell den neuen nutkidz-Comic aufgespielt. Abgesehen davon jedoch, dass die Besucherzahlen steigen - immer ein positives Zeichen, wie ich finde - wie findet ihr die nutkidz? Feedback wie immer erwünscht.

Ab sofort mit Backlinks

So, jetzt hat auch der Nodix Blog dieses coole, unverzichtbare Feature: Backlinks! Ihr verlinkt auf einen Nodix-Post, und die Backlinks merken das.

Na ja, zumindest in der Theorie.

Mit Dank an Blogger für's Implementieren.

Abflug

Ich habe Schwesterchen versprochen, regelmäßig aus Rom zu berichten. Wobei ich noch keine Ahnung habe, wie ich in Rom überhaupt verbunden sein werde, mit dem Netz.

Aber von vorne -- warum verschlägt es mich überhaupt in die Ewige Stadt? Es geht dabei um das Thema meiner Doktorarbeit, herauszufinden, was eine gute Ontologie ist. Zugegeben, ich weiß erst seit kurzem, was eine Ontologie überhaupt ist -- und jetzt will ich wissen, wann eine gut ist und wann nicht? Soviel zu hohen Zielen. Jedenfalls gibt es weltweit nicht so wahnsinnig viele Experten auf diesem Gebiet, und einer davon -- der geneigte Leser wird es sicher bereits erahnen -- sitzt in Rom.

So jedenfalls kommt es, dass ich für ein paar Wochen nach Rom fahre, und wir zusammen an diesem Thema arbeiten werden. Die Arbeitsergebnisse werden sich auf Semantic Nodix finden, hier hingegen private Eindrücke und Erlebnisse.

Wie zum Beispiel, dass ich furchtbar nervös bin. Ich realisierte, dass ich noch nie so lange weg von daheim war (wobei ich großzügig daheim als sowohl Stuttgart als auch Brač zähle). Aber ich freue mich auch sehr darauf. Ich war noch nie in Rom. Und kann kein Italienisch. Aber ich habe mir auf Wikitravel schon zahlreiche Informationen über Rom eingeholt, also kann auch gar nichts schief gehen. Da habe ich etwa erfahren, dass der Bahnhof Termini, an dem ich ankomme, berühmt für seine hohe Kriminalität ist. Und dass der Flughafen Leonardo da Vinci zu weit weg ist, um ein Taxi zu nehmen. Das Hotel hat mir jedenfalls einen Limousinenservice angeboten, für läppische 55 €. Habe ich dann doch abgelehnt, mit dem Zug kostet es nur Neuneinhalb. Und es gibt auch, so wie in Sofia, betrügerische Taxen, die ohne Lizenz und zu horrenden Preisen fahren. Oder man wird von Horden von Kindern angefallen, die einem dann die Geldbörse entwenden. Bester Trick: nicht wie ein Tourist aussehen. Stelle ich mir schwierig vor, wenn ich gerade mit Rucksack und zwei Koffern ankomme.

So, wie gesagt, da ich nun informiert bin, kann ich ja ganz beruhigt hinfahren. Es wird sicher sehr schön.

Abraham Bernstein on users

"The regular user is not able to cope with strict inheritance."

Abraham Bernstein of the University of Zürich was today at the AIFB and gave a talk on SimPack - A Generic Java Library for Similarity Measures in Ontologies. Not being an expert in mapping, alignment and similarity I still saw some of the interesting ideas in it, and I liked the big number of different approaches towards measuring similiarity.

Which struck me much more was the above statement, which is based on his experience with, you know, normal users, who are "not brainwashed with object-oriented paradigms". Another example he gave was his 5 years old kid being perfectly able to cope with default reasoning - the "pinguins are birds, but pinguins can't fly"- thing, and thus do not follow strict inheritance.

This was quite enlightening, and leads to many questions: if the user can't even deal with subsumption, how do we expect him to be able to deal with disjunctions, complements or inverse functional properties?

Abraham's statement is based on experience with the Process Handbook, and not just drawn from thin air. There are a lot of use cases for the Semantic Web that do *not* require the participation of the normal end user, thus there still lie plenty of possibilities for great research. But I still believe that the normal end user has to unlock the Semantic Web in order to really make the whole idea lift off and fly. But in order to achieve that we need to tear down the wall that Abraham describes here.

Any ideas how to do this?

Abraham Taherivand to step down from Wikimedia Deutschland

Today Abraham Taherivand announced that he is stepping down as the CEO of Wikimedia Deutschland at the end of the year.

Thank you for everything!

Abschlussprüfung

So, die nächsten Tage muss ich büffeln. Am Freitag ist meine schriftliche Abschlussprüfung (zum Thema Gerechtigkeit), und zwar morgens von 9:30 bis 12:30. Am Montag ist dann der mündliche Teil der Prüfung dran, mit den Themen Zweifel, Trost und Utilitarismuskritik, und zwar um 14:00, eine halbe Stunde lang etwa.

Dies für alle, die mir die Daumen drücken wollen.

Abschlussprüfungen

30 May 2003

Und wieder ein Tag Verspätung. Nun ja, ein kleines Update an alle treuen Leser: Schwesterchen hat diese Woche ihre erste Runde Abschlussprüfungen geschrieben, und hat wenig Zeit. Ich schreibe an meiner Diplomarbeit und bin gerade einem wichtigen und schwierigen Problem auf der Spur, und will es alsbald lösen. Habe auch wenig Zeit.

Wir werden es wohl auch weiterhin schaffen, neue Folgen der nutkidz zu veröffentlichen, aber restliche Updates werden noch einige Zeit lang rar bleiben, sorry. Dies wird sich bessern, aber es können noch ein paar Wochen ins Land ziehen. Danke für Eure Treue!

Und Wow! Ihr seid Klasse! Die 40.000 sind überschritten! Noch ist das Projekt 100.000 nicht aufgegeben, auch wenn es im Moment ein wenig ruhiger wirkt, aber ich habe ein paar Sachen im Kopf, die diese Seite wieder ungemein beleben werden, sobald ich wieder Zeit habe. Vertraut mir!

Bis bald, und liebe Grüße in die ganze weite Welt!

Abschlussvortrag Diplomarbeit

Morgen findet der Abschlussvortrag für meine Diplomarbeit statt (hier finden sich die Folien zum Abschlussvortrag). Wünscht mir alles Gute! Ich kann offensichtlich ein wenig Glück gebrauchen: bei der Vorbereitung der Demo verreckte plötzlich mein CygWin, und ich konnte gar nichts mehr ausprobieren...

Das wird morgen etwas hektischer dadurch :(

Academic lineage

Sorry for showing off, but it is just too cool not to: here is a visualization of my academic lineage according to Wikidata.

Query: w.wiki/AE8

AcceLogiChip

Accelerated logic chips - that would be neat.

The problem with all this OWL stuff is, that it is computationally expensive. Google beats you in speed easily, having some 60.000 PCs or so, but indexing some 8 billion web pages, each with maybe a thousand words. And if you ever tried Googles Desktop Search, you will see they can perform this miracles right on your PC too! (Never mind that there are a dozen tools doing exactly the same stuff Googles Desktop Search does, just better - but hey, they lack the name!)

What does the Semantic Web achieve? Well, ever tried to run a logic inferencing engine with a few million instances? With a highly axiomatized TBox of, let's say, just a few thousand terms? No? You really should.

Sure, our PCs do get faster all the time (thanks to Moores Law!), but is that fast enough? We want to see the Semantic Web up and running not in a few more iterations of Moores Law, but much, much earlier. Why not use the same trick graphic magicians did? Highly specialized accelerated logic chips, things that can do your tableu reasoning in just a fraction of the time needed with your bloated all-purpose-CPU.

Aktion 20.000

584 Tage - vom 15. Januar 2001 bis zum 21. August 2002 - hat es gebraucht, bis der Counter 10.000 Besucher anzeigte. Meine selbstgestellte Frist wurde dadurch um mehr als vier Monate unterboten - einfach fantastisch, Danke nochmal an alle Besucher!

Aber, um mir selbst, und ein wenig auch Euch, eine neue Herausforderung zu stellen, sei hiermit die Aktion 20.000 angekündigt! Wieder geht es darum, wann fällt die nächste Grenze, wann werden es 20.000 Besucher sein? Und die Frist? In der halben Zeit! 292 Tage stell ich mir selbst als Zeitraum, das heißt: am 9. Juni 2003 sollen die 20.000 Besucher erreicht werden!

Nun denn, dies ist mehr eine Herausforderung an mich: wie schaffe ich es, diese Seite für Euch so interessant wie möglich zu gestalten? Dazu kommen demnächst einige Neuerungen - doch dazu ein andermal mehr. Die Durststrecke hier wird ja leider noch eine Woche andauern... doch dann geht's wieder los!

All problems solved

Today I feel a lot like the nameless hero from the PhD comics, and what is currently happening to him (begin of the storyline, continuation, especially here, and very much like here, but pitily, not at all like here). Today we had Boris Motik visiting the AIFB, who is one of the brightest people on this planet. And he gave us a more than interesting talk on how to integrate OWL with relational databases. What especially interested me was his great work on constraints -- especially since I was working on similar issues, unit tests for ontologies, as I think constraints are crucial for evaluating ontologies.

But Boris just did it much cleaner, better, and more thorough. So, I will dive into his work and try to understand it to see, if there is anything left to do for me, or if I have to refocus. There's still much left, but I am afraid the most interesting part from a theoretic point is solved. Or rather, in the name of progress, I am happy it is solved. Let's get on with the next problem.

(I *know* it is my own fault)

Alles auf Zucker

aus der Reihe Filme in 50 Worten

Als das Intro kam, und es klar war, dass ein deutscher Film gesneakt wird, standen die ersten auf und verschwanden. Selber schuld.

Zwei Brüder, ein kommunistischer Ossi-Jude und ein orthodoxer, Frankfurter-Banken-Reicher Wessi-Jude müssen sich versöhnen, um an das Erbe der Frau Mutter zu gelangen - nachdem sie seit dem Mauerbau nicht mehr gesprochen hatten. Lustig, skurill, nie übertrieben absurd, und dennoch mit zahlreichen witzigen und manchen tiefschwarzen Gemeinheiten versehen. Kein "Muss man gehsehen haben", aber sicher ein "Sehr nett anzuschauen".

Ab 6. Januar 2005 im Kino.

Alles halb so schlimm

Bevor ich gar nichts schreibe, klaue ich einfach mal aus einer e-Mail einen netten Text (Danke hierfür, Konrad!). Ich bin ab nächster Woche wieder an Nodix aktiv (arbeiten tue ich noch bis Dienstag, aber ab Donnerstag geht es nach Bielefeld auf ein Fortbildungsseminar).
Viel Spaß mit dem Text!

Liebe Mama, lieber Papa,
ich habe ja vor 3 Monaten die Universität begonnen und weiß, dass wir wenig Kontakt hatten. Darum will ich euch jetzt alles erzählen, was bisher so geschehen ist.
Eigentlich läuft alles recht gut.
Ich hatte vor ein paar Wochen eine Gehirnerschütterung, die ich mir auf einer Party zugezogen habe, aber das kam wohl daher, dass ich die falschen Pillen geschluckt habe, die irgendein Junge mir gegeben hat. Aber ich erinnere mich nicht mehr so genau daran und meine Klamotten habe ich fast alle wieder aufgefunden, macht euch keine Sorgen. Gott sei Dank musste ich nicht ins Krankenhaus und habe jetzt nur noch ein paar Mal am Tag Kopfschmerzen.
Anfangs wurde ich durch den Lärm im Studentenhaus sehr gestört, aber jetzt wohne ich bei einem sehr netten Jungen, der bei der Tankstelle um die Ecke arbeitet. Er ist wirklich ein Schatz, und wir wollen heiraten.
Wir haben noch kein Datum festgelegt, aber ich will nicht zu lange warten, sonst sieht man dass ich schwanger bin. Ja, Mama und Papa, ich bekomme ein Kind und es läuft prima.Ich fühle mich zwar ab und zu etwas müde, aber das kommt durch die Medikamente die ich nehme gegen die Infektion, die ich mir dummerweise von Abdul eingefangen habe. Aber das ist nicht seine Schuld, ich hätte einfach besser aufpassen müssen.
Ihr werdet Abdul mögen. Er hat zwar keine Ausbildung, ist aber sehr ehrgeizig und will bald seine eigene Tankstelle eröffnen. Zumindest falls wir das Geld unter meinen Namen leihen können. Es ist schon blöd, nur weil er kein Deutscher ist, und 'ne Weile im Gefängnis gesessen hat, kann er keinen Kredit bekommen. Das ist doch echt diskriminierend. Er interessiert sich auch sehr für Politik und ist Mitglied von gleich drei arabischen Organisationen. Ansonsten weiß ich da nicht so viel drüber, ich muss nämlich immer gehen, wenn sie sich versammeln.
Vorgestern musste ich ihn bei der Polizei abholen und es war toll zu sehen, wie er die 3 Polizisten mit ein paar Argumenten zum Schweigen brachte. Er ist wirklich stolz auf mich und findet dass ich mit dem Kopftuch (ja, das muss halt) noch viel schöner bin als seine beiden anderen Frauen.

So, jetzt wisst ihr, was alles HAETTE geschehen können. Ich will noch eben loswerden, dass ich keine Gehirnerschütterung, Pillen, Baby, Geschlechtskrankheit oder Freund habe.
Ich habe 'ne 4 in Rechtskunde und 'ne 5 in Philosophie und wollte eigentlich nur deutlich machen, dass das kein Desaster ist...

Also, immer cool bleiben :)

Eure Euch liebende Tochter

Alles im Fluss

Habe ich euch ein paar Tage in Ruhe gelassen. Nun, zugegegeben, es hat sich eher was auf den DSA4 Werkzeug-Seiten getan. Aber ich habe Nodix beileibe nicht vergessen: der neue nutkidz-Comic ist fristgerecht heute aufgespielt worden (Danke an Schwesterchen, die trotz schwerer Krankheit und schulischer und beruflicher Verpflichtungen mir ihn pünktlich zuschickte) und demnächst gibt es hier ein weiteres kleines Schmankerl für alle Freunde des Rollenspiels. Mehr wird noch nicht verraten.

Alles neu macht der Mai

Endlich, endlich: der DSA4 Heldenerschaffer ist in einer erste Betaversion veröffentlicht. Das bedeutet vor allem, dass ich zur Zeit zahlreiche eMails erhalte, welche über die darin enthaltenen Fehler berichten. Vielen Dank allen! Ich werde sie sobald wie möglich korrigieren und auch das nächste Programm in der Reihe der DSA4 Tools steht bereits kurz vor der Veröffentlichung.
Die Studienarbeit ist jedoch nach wie vor meine höchste Priorität, ich hoffe, sie leidet nicht allzusehr darunter, dass mich DSA4 derzeit so beschäftigt hält. Auch will ich weiterhin neue Bilder meines Schwesterchens ins Netz stellen, mich um ein paar staubige Ecken von Nodix kümmern und endlich auch an der Chronik wieder weiterarbeiten.

Nur eines könnte mich aufhalten, ein plötzlicher Anfall von Frühlingsgefühlen. Ich hoffe doch, dass ich dennoch weiter an dieser Seite und an den Projekten weiter arbeiten kann...

Schließlich bleibt festzustellen, dass mit der Veröffentlichung des DSA4 Tools die Hits dramatisch zunehmen. Das Erreichen der Ziele der Aktion 10.000 wirkt realistischer denn je...

Mit besten Grüßen,
euer vielbeschäftigter
Denny Vrandecic

P.S.: auch wenn es nicht so geklungen haben mag, hier noch einmal ausdrücklich: ich freue mich über jedes Feedback, davon lebt diese Seite und meine Motivation, an ihr weiterzuarbeiten. Vielen Dank nochmal an alle!

Aloah August!

Überraschenderweise haben sich über 30 weitere Bilder in die Galerie geschlichen, ganz unerwartet. Meine Schwester hatte die Bilder eigentlich für ihre eigene Website gemacht, aber als ich sie schließlich sah gab es kein Halten mehr: in kürzester Zeit hatte ich die Galerie um eine Sektion erweitert und alle Bilder reingestellt... dummerweise nicht im Nodix-üblichen Format, die Seiten sind nicht automatisch wartbar mit meinem Nodix-Websiten-Generator. Seufz, was soll's...
Ich freue mich auf ihre Website. Eine weitere Website aus dem Hause Vrandecic - noch weiß ich nicht, ob das Drohung oder Verheißung ist, aber auf jedenfall ein weiterer wichtiger Schritt auf dem Weg zur Weltherrschaft.

Bemerkenswerter weise ist der Sommer tatsächlich da. Hin und wieder zumindest. Dafür aber um so schöner in der kurzen Zeit, in der er uns beehrt. Leider habe ich selber zudem zu wenig Zeit, weil meine Studienarbeit in die letzte Phase kommt: zum nächsten Editorial ist sie fertig. Schon früher, aber bis davor lesen wir uns ja kaum...

Ebenfalls bis zum nächsten Editorial könnte die Aktion 10000 fertig sein. Danke, danke, danke, ihr lieben Besucher! Sollte sie es tatsächlich schaffen, ist sie vier Monate vor der gesetzten Frist fertig geworden. Großartig!

Das DSA4 Werkzeug ist jetzt Open Source. Das lange gehalten Versprechen wurde wahr gemacht. Jetzt mal sehen, ob ich irgendetwas aus den ganzen Büchern über Open Source gelernt habe, und ob ich dieses Projekt vernünftig leiten und in die Wege bringen kann. Als großes leuchtendes Vorbild sehe ich ja das entsprechende Produkt für AD&D, PCGen. Na gut, PCGen hat täglich etwa 8000 Page Views und in der Woche 15000 Downloads - aber eben auch über 60 Entwickler und über 2000 Mitglieder in der Mailingliste... Wie gesagt, ein Vorbild, ein leuchtender Stern, an dem ich mich orientieren kann. Zur Zeit habe ich täglich im Schnitt 300 Page Views, in der Woche 100 Downloads, ein einzelner Entwickler und 9 Mitglieder in der Mailingliste. Dafür sind sie mehr als zwei Jahre älter - also, es gibt viel aufzuholen, packen wir's an!

Voller positiver Energie,
Euer Denny

P.S.: ich überlege den langsamen Umbau von Nodix, so ab Herbst - deswegen schon mal ein langsames Sammeln von Vorschlägen: was wollt ihr haben, was nicht?

Alt, neu, geliehen und blau

Danke! Eine Achtelmillion Besucher konnten seit Bestehen von Nodix verzeichnet werden. Wow! Als dankeschön wieder eine Preview in der Reihe Filme in 50 Worten

Sie wird übermorgen heiraten. Doch das Schicksal spielt verworrene Spiele: der Freund ihrer Schwester, der diese vor zwei Jahren einfach sitzen ließ, und wegen dem die Schwester seitdem wegen Depression in der Geschlossenen sitzt, taucht überraschend auf, und durch die Wirrungen der Ereignisse schlucken sie am Tag davor etwas Tiefblaues, dass sie auf einen ziemlichen Trip wirft. Die Schwester hingegen sieht ständig ziemlich zusammengeprügelte Sänger, ganz ohne die Pille. Und dann wird es leicht durcheinander.

Ähh, ein dänischer Dogma-Film halt. Ich habe nicht prinzipiell was gegen Dogma, aber ich möchte endlich einen sehen, der seine Story ernst nimmt. Wie meistens verliert sich der Film in der Darstellung zahlreicher, lebensnaher, für den Plot vollkommen irrelevanter Details. Er hat durchaus Charme, und auch mal Witz, aber die Liebesgeschichte kommt völlig unglaubwürdig daher, und durch das vollständige Fehlen von Filmmusik (abgesehen von Mettes Nur-in-ihrem-Kopf-Sängern) gelingt es dem Film nicht, die Emotionen entsprechend zu transportieren.
Ein guter Beweis dafür, dass nicht jeder kleine, unabhängige Film auch gut ist.

Amazonempfehlung

Ich bin von Amazons Empfehlungen wirklich begeistert. Mal ehrlich - welcher Buchhändler kennt heute noch seine Kunden so gut, dass er so treffende Vorschläge machen kann?

Nur heute war ich etwas verdutzt, weil mir Leicht Verdientes Gold empfohlen wurde. Stimmt, eine wirklich hervorragende Anschaffung. Schließlich habe ich ja mitgeschrieben...

Amber in Stuttgart

Yeah! Morgen spielen Amber und Gefährten in Stuttgarter Landespavillon. Ich gehe davon aus, euch zahlreich bei dem Konzert zu sehen. Sie sind als Support für Saltatio Mortis dort. Auch die, sehr lohnenswert.

Amber promotet zur Zeit mit der Tour ihr zweites Album, Rabenflug. Hörproben gibt es auf Ambers Website. Hört rein, kommt zu dem abschließenden Konzert der laufenden Tour in Stuttgart, morgen, am 30.12, und habt eine Menge Spaß!

An indigenous library

Great story about an indigenous library using their own categorization system instead of the Dewey Decimal System (which really doesn't work for indigenous topics - I mean it doesn't really work for the modern world as well, but that's another story).

What I am wondering though if if they're not going far enough. Dewey's system is eventually rooted in Aristotelian logic and categorization - with a good dash of practical concerns of running a physical library.

Today, these practical concerns can be overcome, and it is unlikely that indigenous approaches to knowledge representation would be rooted in Aristotelian logic. Yes, having your own categorization system is a great first step - but that's like writing your own anthem following the logic of European hymns or creating your own flag following the weird rules of European medieval heraldry. How would it look like if you were really going back to the principles and roots of the people represented in these libraries? Which novel alternatives to representing and categorizing knowledge could we uncover?

Via Jens Ohlig.

An wen...

...erinnert mich nur dieser Chatbot?

Angeblich kritisch

Die Geschichte von Epic. Der Film ist schon etwas älter (äh, 2005?), jetzt aber endlich in einer hervorragenden deutschen Übersetzung zu haben.

Es geht darum, wie sich das Internet weiterentwickeln könnte. Eine recht spannende Version.

Angelina Jolie wird 30

Bei dieser Gelegenheit erfuhr ich im Radio, dass die Dame auch bei Meat Loaf in einem Video auftrat. Ich versuchte mich krampfhaft durch die Meat Loaf Videos zu erinnern, und von der Zeit her wäre das einzig passende I'd do anything for love (but I won't do that) dachte ich. Und während ich mich so erinnerte, vermeinte ich das Bild der Hauptdarstellerin aus dem Video herauszubeschwören, und war mir in der Erinnerung schon ganz und gar sicher, ja, das war Angelina Jolie!

Heute abend recherchierte ich dann doch ein wenig. Laut imdb spielte Angelina Jolie in Bat out of Hell II: The Picture Show mit. Dieses wiederum ist laut Rotten Tomatoes eine Sammlung von Videos, darunter eben auch besagter Song! Doch Angelina soll einen Runaway gespielt haben, was nicht passt - in dem Video kam kein Runarway vor. Viel mehr wurde die Rolle von Mrs Loud gespielt, die Laut Wikipedia in Wirklichkeit Lorraine Crosby heißt. War es dann Rock'n'Roll dreams come true? Da kam ein Runaway vor.

Ergebnis: Lorraine Crosby sieht so aus. Angelina Jolie so. In meiner Erinnerung sehe ich aber, wenn ich an das Video zu I'd do anything etc. denke nur mehr nur noch Angelina, und nicht Lorraine. Diese verdammte Erinnerung ist doch ein zu wackeliges Ding, ich sollte mich gar nicht mehr darauf verlassen...

Was ich aber nicht herausgefunden habe: in welchem Meat Loaf Video spielte die Jolie denn jetzt mit? Weiß das jemand?

Angriff auf Nodix

Wow, gestern wurden die meisten Nodix-Seiten Opfer einer Defacement-Attacke, wie auch das Defacement-Archiv Zone-H festhält. Auch nakit-arts erging es so. Und so hat es ausgehen.

So albern es ist, aber ich fühle auch einen gewissen Stolz, Opfer *einer* ersten Defacement-Attacke geworden zu sein. Heißt ja schließlich, dass die Nodix-Seiten entsprechend aufgefallen sind. Und, ach ja, dass die Sicherheit hier nicht sonderlich ist :(

Frage mich bloß, wie das passiert ist und was man dagegen machen kann. Zum Glück haben die Angreifer keine Daten gelöscht, sonder nur die index-Seite ausgetauscht, aber die hätten ja auch viel unfreundlicher sein können.

Tipps?

Ankunft

Ich hoffe, der Steuerzahler weiß zu schätzen, dass ich mich gestern für ihn richtig aufgeopfert habe. Wie gesagt, das Hotel hatte mir angeboten, mich mit einer Limo vom Flughafen abzuholen, mit Schildchen, wo mein Name draufsteht usw., das ganze Programm.

Das kostete mir zuviel, also fuhr ich mit der Bahn zum Römischen Hauptbahnhof Termini. Von dort hätte ich ja auch ein Taxi nehmen können - doch, woran erkennt man in Rom die legalen Taxis? Und um Termini herum, so heißt es, sei das schlechte Viertel von Rom.

Also ab in die Metro (übersichtlich, zwei Linien, ein Ost-West (blau) und eine Nord-Süd (rot), zwei Haltestellen) und dann zu Fuß weiter. Auf der Karte sah das nach etwa einem Kilometer aus, also solte es doch kein Problem sein. Mein Gedächtnis ließ mich nicht im Stich, den Weg fand ich.

Nur ein Kilometer ist mir 30 Kilo Gepäck doch deutlich weiter als gedacht... und das war auf der Karte nicht eingezeichnet. Ich brauchte für die Strecke tatsächlich eine Stunde, mein Rücken tat weh, meine Handflächen brannten, ich war durstig und kaputt. Ohne Handschuhe hätte ich mir die Hände wundgescheuert. Immerhin, das Wetter war angenehm kühl, schattig und windig.

Dafür schlief ich zunächst mal 12 Stunden durch. Wow. Mache ich sonst nie. Jetzt bin ich erholt und bei der Arbeit. Und es macht Spaß.

Annotating axioms in OWL

This was sent to the OWLED-List by me, that prepares to come up with an OWL 1.1 recommendation. The week before, Alan Rector suggested to add the possibility to annotate axioms in OWL, which is currently not possible. There is many a good use for that, like provenance, trust, and son on. But the discussion wasn't too fruitful, so I suggested the following solution.

After it came up in discussion last week, I hoped an elegant solution for annotating axioms would arise. Pitily, no one had a brilliant idea, so I went ahead and tackled the problem in my mediocre way.

First, what do I want to achieve with my solution:

  1. Don't crack the Semantic Web stack. The solution has to be compatible to XML, RDF and OWL. I don't want to separate OWL from RDF, but to offer a solution that is able to be handled by both.
  2. We want to annotate not just entities, but also axioms. Thus an axiom needs to be able to be a subject in a statement. Thus an axiom needs to have an URI.
  3. The solution must be easy to implement, or either people will get my FOAF-file and see whom I care about and hurt them.

Did I miss something? I found two solutions for this problem.

A) Define the relationship between an ontology (which does have an URI) and the axioms stated inside. Then we can talk about the ontologies, annotate those, add provenance information, etc. Problem: after importing axioms from one ontology into another, those information is lost. We would need a whole infrastructre for Networked Ontologies to achieve that, which is a major and worthy task. With this solution, you can annotate a single axiom by putting it alone into an ontology, and claim that when annotating the ontology you actually annotate the axiom as well. Not my favourite solution, because of several drawbacks which I won't dwell in deeper if not asked.

B) The other solution is using Reification (stop yelling and moaning right now!). I'm serious. And it's not that hard, really. First, the OWL specification offers a standard of how to translate the Axioms into triples. Second, thte RDF specification offers a standard way to reify a triple. With the RDF reification we can give a triple a name. Then we can introduce a new resource type owl11:axiom, where its instances contains the triples that were translated from a certain DL Axiom. This rdf resource of type owl11:axiom is then the name/URI of the original DL Axiom.

RDF-triples that have a subject of type rdf:statement or owl11:axiom don't have semantics with regards to OWL DLs Model Theoretic Semantics, they are just syntactic parts of the ontology in order to allow the naming of axioms in order to annotate them.

For example, we say that all Humans are Mortal. In Abstract Syntax this is

SubClassOf(Human Mortal)

In RDF triples (N3) this is:

:Human rdfs:subClassOf :Mortal.

Now reifiying this we add the triples:

:statement1 rdf:type rdf:statement.
:statement1 rdf:hasSubject :Human.
:statement1 rdf:hasPredicate owl:subClassOf.
:statement1 rdf:hasObject :Mortal.
:axiom1 owl11:consistsOf :statement1.

Now we can make annotations:

:axiom1 :bestBefore "24/12/2011"^xsd:date.
:axiom1 :utteredBy :Aristotle.

Naturally, :bestBefore and :utteredBy have to be Annotation Properties. When an axiom is broken up in more than one triple, the reasone of having an extra owl11:axiom instead of simply using rdf:statement should become clear.

Does this solution fulfill the given conditions?

  1. The Semantic Web stack is safe and whole. RDF Semantics is adhered to, and OWL semantics is fine, and all syntax regulations imposed by XML and RDF/XML are regarded. Everything is fine.
  2. Yep, we can annotate single axioms. Axioms have URIs. We can annotate our metadata! Yeah!
  3. Is it easy to implement? I think it is: for reading OWL ontologies, a tool may just ignore all those extra triples (it can easily filter them out), and still remain faithful to the standard semantics. Tools that allow to name axioms (or annotate them) and want to deal with those, have to simply check for the correct reification (RDF toolkits should provide these anyway), and get the axiom's URI.

Problems that I see: I identified two problems. First, what happens, if those triples get separated from the other actual axiom triples? What if they get ripped apart and mushed into another ontology? Well, that problem is somewhat open for OWL DL and Lite anyway, since not all axioms map to single triples. The answer probably is, that reification would fail in that case. Strict reading could be that the ontology leaves OWL DL then and moves to OWL full, but I wouldn't require that.

Second problem, and this is by far more serious, is that people can't stand reification in RDF, that they simply hate it and that alone for that they will ignore this solution. I can only answer that reification in practise is probably much easier than expected when done properly, due to some short-hand notations available in RDF/XML-serialization, and other syntaxes. No one holds us back from changing the Abstract Syntax and the OWL XML Presentation Syntax appropriately in order to name axioms far more easy than in the proposed RDF/XML-Syntax. Serializations in RDF/XML-Syntax may get yucky, and the RDF graph of an OWL ontology could become cluttered, but then, so what? RDF/XML isn't read by anyone anyway, is it? And one can remove all those extra triples (and then the annotations) automatically if wished, without changing the Semantics of the ontology.

So, any comments on why this is bad? (Actually, I honestly think this is a practicable solution, though not elegant. I already see the 2007 ISWC best paper award, "On the Properties of Higher Order Logics in OWL"...)

I hope you won't kill me too hard for this solution :) And I need to change my FOAF-file now, in order to protect my friends...

Annotating axioms in OWL - Reloaded

Yesterday I sent a lengthy mail to the OWL-ED Mailinglist] about how to annotate axioms. Peter Patel-Schneider himself, first author of the OWL Semantics specification, told me in nice words that my solution sucked heavily, by pointing out that the semantics of annotations in OWL are a tiny bit different than I thought. Actually, they are not at all as I thought. So, in the evening hours, instead of packing my stuff for a trip, I tried to solve the problem anew. Let's see where the problem will be this time.

Peter, you were right, I was wrong. I took a thorough look at the Semantics, and I had to learn that my understanding of annotations was totally screwed. I thought they would be like comments in C++ or Prolog, but instead they are rather like a second ABox over (almost) the whole universe. This surprised me a lot.

But still, I am not that good at giving up, and I think my solution pretty much works syntactically. Now we need only a proper Semantics to get a few things right.

What would be the problem? Let's make an example. I need some kind of Syntax to give axioms name. I will just take Name":" Axiom. This is no proposal for the Abstract Syntax extension, this is just for now.

Axiom1: SubClassOf(Human Mortal)
Axiom2: Individual(Socrates type(Human))

Do they entail the following?

Axiom3: Individual(Scorates type(Mortal))

Well, pitily they don't. Because the Axiom3 has a name, Axiom3, that is not entailed by Axiom1 and Axiom2. Their contents would be entailed, but the name of the axiom would not.

I guess, this is the problem Peter saw. So, can we solve it?

Well, yes, we can. But it's a bit tricky.

First, we need the notion of Combined Inverse Functional Properties, CIFP. A CIFP has several dimensions. A CIFP with dimension 1 ist a normal Inverse Functional Property. A CIFP with dimension 2 over the properties R, S can be represented with the following rule: a R c, a S d, b R c, b S d -> a = b. This means, in a two dimensional space I can identify an individual with the help of two roles. More on this here: http://lists.w3.org/Archives/Public/semantic-web/2005Feb/0095.html

Second, we extend the semantics of OWL. Every axiom entails reifying annotations. This means:

SubClassOf(Human Mortal)

entails

Individual(Statement1 type(rdf:statement)
annotation(rdf:subject Human)
annotation(rdf:property owl:SubClassOf)
annotation(rdf:object Mortal))

or, in N3:

Human owl:subClassOf Mortal.

entails

Statement1 rdf:type rdf:statement.
Statement1 rdf:subject Human.
Statement1 rdf:property owl:subClassOf.
Statement1 rdf:object Mortal.
rdf:subject rdf:type owl:AnnotationProperty.
rdf:predicate rdf:type owl:AnnotationProperty.
rdf:object rdf:type owl:AnnotationProperty.

Third, we have to state that we have a 3D-CIFP for statements over rdf:subject, rdf:property and rdf:object*. This is to ensure that Statement1 always maps to the same element in the universe, even though an OWL API could give it a blank node, or a different URI everytime (mind you, I am not suggesting to extend the OWL language with CIFPs, I just say that it is used here in order to state that all triples with the same subject, object and predicate actually is the same triple).

Fourth, the above statement also entails

Individual(Axiom1 type(owl11:axiom)
annotation(owl11:consistsOf Statement1))

or, in N3:

Axiom1 rdf:type owl11:axiom.
Axiom1 owl11:consistsOf Statement1.
owl11:consistsOf rdf:type owl:AnnotationProperty.

Fifth, owl11:consistsOf needs to be an n-dimensional CIFP with n being the number of triples the original axiom got translated to (in this case, happy us!, n=1).

This assures that an axiom is always the same, whatever it's name is, as long as it expresses the same thing. Thus, in our example, Axiom3 would indeed be entailed by Axiom1 and Axiom2. So, even if two editors load an ontology an annotate an axiom, they could later interchange and find each others annotation attached to the correct axiom.

This is only a rough sketch of the way, and yes, I see that the Interpretation gets filled up with a lot of annotations, but I still think that this is quite easy to implement, actually. Both the OWL API by Bechhofer and Volz and the KAON2 API by Motik offer access to axioms on an ontology level, and also offer the possibility to check if they are the same anyway, if I remember correctly (which is basically a shortcut for the whole semantic entailment and CIFP-stuff proposed earlier). All they need is a further field containing the URI of the axiom.

As said, this looks far more nasty than it actually is, and for most practical reasons it won't do much harm. Now we finally can annotate axioms, yeeeha!

Merrily awaiting Peter to acknowledge that this is a brilliant solution :) Or else tell me I did it all wrong again, so that I have to think over the weekend how to solve this problem again.

Cheers, denny

 *What I mean with that is the following rule: a=b :- a rdf:subject s, a rdf:property p, a rdf:object o, b rdf:subject s, b rdf:property p, b rdf:object o

Another Semantic MediaWiki

I stumbled about another Semantic MediaWiki, an implementation created by Hideaki Takeda and Muljadi Hendry of the Japanese National Institute of Informatics in Tokyo. Their implementation looks very neat, although it is quite different in a few basic things (that we consider crucial in order to work), take a look at their full paper (it's in their wiki - oh, and it's in Japanese).

The basic difference between their approach and the one we suggest is that they add metadata management abilities to MediaWiki - which is cool. But they don't seem to aim at a full integration into the Wikipedia, i.e. embedding the metadata into the article text instead of appending it at some place. Actually, if we had software that is able to process natural languages, we wouldn't need our approach, but their would still be useful.

Nevertheless, they have a big huge advantage: a running system. Go there, take a look, it's cool! Actually, we have a system online too, but won't yet disclose the link due to a bug that's a kind of showstopper. But expect it to be online next week - including the source and all! It will be just a first version, but I sure hope to gather the people who want to work on it around the code.

Ante Vrandečić (1919-1944)

I knew that my father was named for his uncle. His other brother told me about him, and he was telling me that he became a prisoner of war and that they lost his trace. Back then, I didn't dare to ask on which side he was fighting, and when I would have dared to ask, it was too late.

Today, thanks to the increasing digitalisation of older sources and their publication on the Web and the Web being indexed, I accidentally stumbled upon a record about him in a three thousand pages long book, Volume 8 of the "Victims of the War 1941-1945" (Žrtve rata 1941-1945).

He was a soldier in the NOV i POJ (Yugoslav partisans), became a prisoner of war, and was killed by Germans during a transport in 1944. I don't know where he was captured, from where to where he was transported, where he was killed.

My father, his namesake, then moved to Germany in the 1970s, where he and my mother built a new life for themselves and their children, and where I was born.

I have a lot of complicated emotions and thoughts.

Apricot ist keine Farbe

Zumindest nicht für Männer. Es gibt aber einen kleinen Anteil Frauen, die vier statt drei verschiedene Zapfen im Auge haben. Dadurch können sie tatsächlich mehr verschiedene Farben sehen (bis zu 100 Millionen verschiedene Farben -- statt nur eine Million bei uns Männern, und den meisten Frauen, nur etwa 2-3% der Frauen sind sogenannte Tetrachromanten). Es sei unvorstellbar, wie das aussehe (ja, das kann ich mir vorstellen, ich meine, nicht vorstellen).

Blöd. Ich fühle mich jetzt voll benachteiligt. Gott ist doch Sexist, verflixtnochmal.

Aprilscherz

Die Meldung vom 1. April war leider nur ein Aprilscherz. Zur Zeit sind leider kaum Updates zu erwarten: ab Freitag bin ich für eine Woche weg, und zuvor will ich soviel wie möglich für meine Diplomarbeit erledigen. Aber ich bastel schon an einem größeren Umbau an Nodix - doch wird er nicht vor Mai oder Juni vollzogen werden, tut mir leid. Danke jedenfalls für euer Verständnis!

Architecture for a multilingual Wikipedia

I published a paper today:

"Architecture for a multilingual Wikipedia"

I have been working on this for more than half a decade, and I am very happy to have it finally published. The paper is a working paper and comments are very welcome.

Abstract:

Wikipedia’s vision is a world in which everyone can share in the sum of all knowledge. In its first two decades, this vision has been very unevenly achieved. One of the largest hindrances is the sheer number of languages Wikipedia needs to cover in order to achieve that goal. We argue that we need anew approach to tackle this problem more effectively, a multilingual Wikipedia where content can be shared between language editions. This paper proposes an architecture for a system that fulfills this goal. It separates the goal in two parts: creating and maintaining content in an abstract notation within a project called Abstract Wikipedia, and creating an infrastructure called Wikilambda that can translate this notation to natural language. Both parts are fully owned and maintained by the community, as is the integration of the results in the existing Wikipedia editions. This architecture will make more encyclopedic content available to more people in their own language, and at the same time allow more people to contribute knowledge and reach more people with their contributions, no matter what their respective language backgrounds. Additionally, Wikilambda will unlock a new type of knowledge asset people can share in through the Wikimedia projects, functions, which will vastly expand what people can do with knowledge from Wikimedia, and provide a new venue to collaborate and to engage the creativity of contributors from all around the world. These two projects will considerably expand the capabilities of the Wikimedia platform to enable every single human being to freely share in the sum of all knowledge.

Architektur

Die bisherige Version des DSA4 Werkzeugs ist in C++ programmiert. Für die Daten entschied ich mich damals für ein XML-Datenformat, was zu der Anbindung von Xerces führte. Die GUI wurde mit wxWindows gemacht (die ersten Versionen, falls sich noch jemand erinnert, beruhten auf MSXML und native Windows GUI Elementen). Der Wechsel auf Xerces und wxWindows wurde durchgeführt, um Plattformunabhängig zu sein. Und tatsächlich: der Code compilierte auch unter Linux (dank hier an die Portierer). Aber richtig laufen tat er nie, es waren immer irgendwelche Bugs in der Linuxversion, die ich nicht in der Windowsversion nachvollziehen konnte.

Außerdem war das verwendete C++ viel zu kompliziert. Ich benutzte massig Templates (vor allem für die Rassen, Kulturen und Professionen), was den Code sehr schwer lesbar und bearbeitbar machte. Auch ein schlichtes compilen war eine recht anspruchsvolle Prozedur. Ich gehe davon aus, dass deswegen nie im größeren Maße Entwicklungsarbeit von anderen als von mir geleistet wurde: mein Code war schlicht zu kompliziert. Aus de selben Grund habe ich selber ja in den letzten Monaten den Code nicht angefasst.

Dies ist die wichtigste Lektion für die neue Version: deutlich einfacherer Code. Änderungen müssen auch ohne sich extrem reinzuarbeiten möglich sein. Idealerweise sollte das ganze Werkzeug interpretiert sein. Kein compilen mehr. Ändern. Neustart. Fertig.

Wie ich das erreichen will verrate ich in den nächsten Blogeinträgen genauer (deswegen habe ich auch nicht so viel geschrieben die letzten Tage -- und weil ich auf Dienstreisen in Kaiserslautern und Düsseldorf war -- ich wollte zunächst ein halbwegs tragbares Konzept haben. Das kommt jetzt die nächsten paar Tage. Hier schonmal eine grobe Übersicht -- ich werde im Folgenden genauer auf die Begriffe und den Aufbau eingehen.

Mozilla, die Open Source Gruppe die uns nicht nur Firefox und Thunderbird beschert hat, hat, was die Basis ihrer Tools ist, ein umfangreiches, sogenanntes Mozilla Application Framework erstellt. Im Großen und Ganzen ist es ein supermächtiges Biest -- ich will es soweit zähmen, damit das DSA4 Werkzeug darauf läuft. Hierbei gibt es eine Hauptengine, die XULRunner heißt. XUL ist so etwas wie HTML, bloß für GUIs von Anwendungen (und man kann tatsächlich auch HTML und JavaScript in XUL mit benutzen). Das bedeutet, das User Interface des neuen DSA4 Werkzeugs zu ändern wird so leicht sein wie HTML-Seiten schreiben, ja, sogar mit CSS arbeitet das ganze zusammen. Interessant ist hierbei vor allem das Verwenden von JavaScript, das eine dynamische GUI erlaubt. Die Applikationslogik hingegen kann entweder in JavaScript implementiert werden, oder auch in C++ oder Java (oder Python), um dann über XPCOM (oder PyXPCOM) darauf zuzugreifen. Potenziell also kann man auch Teile des bisherigen Codes wiederverwenden! Schließlich, die Daten werden in RDF gespeichert, einer XML-basierten Sprache, die aber deutlich Vorteile zu XML (und ein paar Nachteile) aufweist.

All dies unterstützt das Mozilla Application Framework von Haus aus. Anhand von Thunderbird und Firefox sieht man ja, dass das durchaus zu brauchbaren Applikationen führen kann. Ich hoffe, dass es auch hier aufgeht.

Asterix in Gefahr

Dieser Tage erschien der 33. Band der Asterix-Reihe: Gallien in Gefahr. Nein, kein "Asterix rettet Gallien", oder "Asterix bringt Gallien in Gefahr", oder ähnlich, sondern schlicht der reißerische Titel "Gallien in Gefahr". Im französischen heißt der Band Le ciel lui tombe sur la tête, Der Himmel fällt ihnen auf den Kopf, aber bei Asterix waren die Übersetzungen schon immer sehr frei - und meistens dadurch auch herausragend gut! (Ich bin, mein lieber Freund, sehr glücklich, dich zu sehn!" - "Das ist ein Alexandriner." -Asterix und Kleopatra). Vor dem weiterlesen ist es vielleicht sinnvoll, den Band zuerst zu lesen, sonst wird einiges vorweggenommen. Ich verrate zwar nicht, wer stirbt, aber dennoch.

Aber kommen wir zum Inhalt. Überraschend wenig gelacht. Ich muss mal die alten Hefte rauskramen, ob man da auch so wenig gelacht hat, ob man nur die besten Stellen sich gemerkt hat (mein Liebling ist Asterix als Legionär, und da habe ich reichlich gelacht, da bin ich mir sicher). Asterix war immer dafür begann, mit seiner Zeit zu spielen. Das Jahr 50 v. Chr. Ganz Gallien ist von Römern besetzt... Das zeigte einen gewissen Rahmen auf, auch wenn er schon in Vergangenheit arg gestreckt wurde: Die große Überfahrt führte nach Amerika, Asterix im Morgenland nach Indien. Doch diesmal reist Asterix gar nicht, sondern vielmehr kommt die Fremde in das kleine gallische Dorf. Und zwar heftig.

Aliens besuchen das kleine gallische Dorf. Ihr Kampf gegen die Römer hat Gerüchte um ihre letale Geheimwaffe ins ganze Universum verbreitet. Die guten Aliens kommen zuerst, um Asterix zu warnen, und dann kommen die bösen nach, und es kommt zu einer Schlacht zwischen den Außerirdischen. Gewaltig große Bilder, oft eine halbe Seite, ein Panel gar die ganze Seite bedeckend - ungewöhnlich für Asterix.

Man mag den Band befremdlich finden. Aber so schlecht ist er nicht. Es ist zudem nicht schwer durch die oberflächliche Geschichte zu stoßen, zu sehen, was dahinter steckt: das gute Alien ist offensichtlich Micky Maus ohne Ohren, ja, selbst der Name des Planeten von dem sie stammen ist ein Angram auf Walt Disney. Sogar die Details - Tuuns Knöpfe, die Handschuhe, die Gesichtsmimik - stimmen. Und er isst Heißen Hund - deutliche Anspielung auf Amerika. Sein Begleiter, im Stile Schwarzeneggers, eine Mischung aus Terminator und Superman, hingegen ist ein Klon, ein Superheld, austauschbar durch den anderen. Dies sind die Ikonen des Amerikanischen Comics. Ich frage mich nur, was der Name Tuun und seines weisen Mannes Hubs bedeutet?

Die bösen Aliens hingegen stammen vom Planeten Nagma, ebenfalls ein nichts verhehlendes Anagram auf japanische Comics. Auch sind sie so insektenhaft gezeichnet und bewegen und kämpfen, wie man es von machem Manga gewohnt ist. Ihr deutsch, oder vielmehr gallo-römisch, ist schlecht, und die Amerikaner, entschuldigung, die guten Aliens behaupten, dass sie nur alle ihre Erfolgsrezepte kopieren. Das erste, was der Abgesandte der Nagmas macht, als er Asterix entgegentritt, ist es, ihm einen Friedensabkommen anzubieten, doch Asterix begrüßt den Außerirdischen mit Dresche. Und so kommt es zur Schlacht.

Amerikanische Superheldencomics, Walt Disneys Massenproduktion und Mangas überfluten den europäischen Markt, bedrängen die französisch-belgischen Künstler, wollen sich das Geheimnis ihres Zaubertranks aneignen wollen, das Geheimnis ihres Erfolgs. Das hätte man für die Nachricht dieses Bandes halten können. Uderzos Postscriptum zu seiner und Goscinnys Asterix-Reihe, der wahrscheinlich letzte Band des nunmehr 78-jährigen Uderzo. Sein Kommentar zur Geschichte des europäischen und globalen Comics.

Doch nach zwei Dritteln des Bandes fragt man sich, was will er nun sagen? Es wird kreuz und quer Frieden geschlossen und aufeinander geprügelt, die Römer und Piraten kriegen einen Gastauftritt, der wirkt, als ob man die Todo-Sachen der Liste "Was alles in einen Asterix-Comic auftauchen muss" noch abhandeln müsste, und am Ende wird allen das Gedächtnis gelöscht, so dass die Geschichte vollkommen folgenlos bleibt. Uderzo hätte viel sagen können, und man hätte zugehört. So aber deutete er einen Kommentar an, um dann doch nur irgendwie die Geschichte zum Ende zu bringen, bevor Seite 48 erreicht wird. Schade. Und warum sieht der römische Offizier diesmal wie Signore Berlusconi aus?

Sicher nicht der schlechteste Asterix. Wahrscheinlich der ungewöhnlichste.