<html><head><meta http-equiv="Content-Type" content="text/html charset=windows-1252"></head><body style="word-wrap: break-word; -webkit-nbsp-mode: space; -webkit-line-break: after-white-space;">Hi Rod,<div><br></div><div>I agree GBIF has troubles to keep identifiers stable for *some* records, but in general we do a much better job than the original publishers in the first place. We try hard to keep GBIF ids stable even if publishers change collection codes, registered datasets twice or do other things to break a simple automated way of mapping source records to existing GBIF ids. Also the stable identifier in GBIF never has been the URL, but it is the local GBIF integer alone. The GBIF services that consume those ids have changed over the years, but its pretty trivial to adjust if you use the GBIF ids instead of the URLs. If there is a clear need to have stable URLs instead I am sure we can get that working easily.</div><div><br></div><div>The two real issues for GBIF are a) duplicates and b) records with varying local identifiers of any sort (triplet, occurrenceID or whatever else).</div><div><br></div><div>When it comes to the varying source identifiers I always liked the idea of flagging those records and datasets as unstable, so it is obvious to users. This is not a 100% safe, but most terrible datasets change all of their ids and that is easily detectable.</div><div>Also with a service like that it would become more obvious to publishers how important stable source ids are.</div><div><br></div><div>Before jumping on DOIs as the next big thing I would really like to understand what needs the community has around specimen ids.</div><div>Gabi clearly has a very real use case, are there others we know about?</div><div><br></div><div><br></div><div>Markus</div><div><br></div><div><br></div><div><br></div><div><br></div><div><div>On 05 May 2014, at 21:05, Roderic Page &lt;<a href="mailto:r.page@bio.gla.ac.uk">r.page@bio.gla.ac.uk</a>&gt; wrote:</div><br class="Apple-interchange-newline"><blockquote type="cite"><meta http-equiv="Content-Type" content="text/html charset=windows-1252"><div style="word-wrap: break-word; -webkit-nbsp-mode: space; -webkit-line-break: after-white-space;">Hi Hilmar,<div><br></div><div>Iím not arguing that we shouldnít build a resolver (I have one that I use, Rich has mentioned heís got one, Markus has one at GBIF, etc.).</div><div><br></div><div>Nor do I think we should wait for institutional and social commitment (because then weíd never get anything done).</div><div><br></div><div>But I do think it would be useful to think it through. For example, itís easy to create a URL for a specimen. Easy peasy. OK, how do I discover that URL? How do I discover these for all specimens? Sounds like I need a centralised discover service like youíe described.</div><div><br></div><div>How do I handle changes in those URLs? I built a specimen code to GBIF resolver for BioStor so that I could link to specimens, GBIF changed lots of those URLs, all my work was undone, boy does GBIF suck sometimes. For example, if I map codes to URLs, I need to handle cases when they change.&nbsp;</div><div><br></div><div>If URLs can change, is there a way to defend against that (this is one reason for DOIs, or other methods of indirection, such as PURLs).&nbsp;</div><div><br></div><div>If providers change, will the URLs change? Is there a way to defend against that (again, DOIs handle this nicely by virtue of (a) indirection, and (b) lack of branding).</div><div><br></div><div>How can I encourage people to use the specimen service? What can I do to make them think it will persist? Can I convince academic publishers to trust it enough to link to it in articles? Whatís the pitch to Pensoft, to Magnolai Press, to Springer and Elsevier?</div><div><br></div><div>Is there some way to make the service itself become trusted? For example if I look at a journal and see that it has DOIs issued by CrossRef, I take that journal more seriously than if itís just got simple URLs. I know that papers in that journal will be linked into the citation network, I also know that there is a backup plan if the journal goes under (because you need that to have DOIs in CrossRef). Likewise, I think Figshare got a big boost when it stared minting DOIs (wow, a DOI, I know DOIs, you mean I can now cite stuff Iíve uploaded there?).&nbsp;</div><div><br></div><div>How can museums and herbaria be persuaded to keep their identifiers stable? What incentives can we provide (e.g., citation metrics for collections)? What system would enable us to do this? What about tracing funding (e.g., the NSF paid for these n papers, and they cite these y specimens, from these z collections, so science paid for by the NSF requires these collections to exist).</div><div><br></div><div>I guess Iím arguing that we should think all this through, because a specimen code to specimen URL is a small piece of the puzzle. Now, Iím desperately trying not to simply say what I think is blindingly obvious here (put DOIs on specimens, add metadata to specimen and specimen citation services, and we are done), but I think if we sit back and look at where we want to be, this is exactly what we need (or something functionally equivalent). Until we see the bigger picture, we will be stuck in amateur hour.</div><div><br></div><div>Take &nbsp;a look at:</div><div><br></div><div><a href="http://search.crossref.org/">http://search.crossref.org</a></div><div><a href="http://www.crossref.org/fundref/">http://www.crossref.org/fundref/</a></div><div><a href="http://support.crossref.org/">http://support.crossref.org/</a></div><div><a href="https://prospect.crossref.org/splash/">https://prospect.crossref.org/splash/</a></div><div><br></div><div>Isnít this the kind of stuff weíd like to do? If so, letís work out whatís needed and make it happen.</div><div><br></div><div>In short, I think we constantly solve an immediate problem in the quickest way we know how, without thinking it through. Iíd argue that if we think about the bigger picture (what do we want to be able to, what are the questions we want to be able to ask) then things become clearer. This is independent of getting everyoneís agreement (but it would help if we made their agreement seem a no brainer by providing solutions to things that cause them pain).</div><div><br></div><div><br></div><div>Regards</div><div><br></div><div>Rod</div><div><br><div><div>On 5 May 2014, at 19:14, Hilmar Lapp &lt;<a href="mailto:hlapp@nescent.org">hlapp@nescent.org</a>&gt; wrote:</div><br class="Apple-interchange-newline"><blockquote type="cite"><div dir="ltr"><div class="gmail_extra"><br><div class="gmail_quote">On Mon, May 5, 2014 at 1:29 PM, Roderic Page <span dir="ltr">&lt;<a href="mailto:r.page@bio.gla.ac.uk" target="_blank">r.page@bio.gla.ac.uk</a>&gt;</span> wrote:<br>
<blockquote class="gmail_quote" style="margin:0px 0px 0px 0.8ex;border-left-width:1px;border-left-color:rgb(204,204,204);border-left-style:solid;padding-left:1ex">Contrary to Hilmar, there is more to this than simply a quick hackathon. Yes, a service that takes metadata and returns one or more identifiers is a good idea and easy to create (there will often be more than one because museum codes are not unique). But who maintains this service? Who maintains the identifiers? Who do I complain to if they break? How do we ensure that they persist when, say, a museum closes down, moves its collection, changes itís web technology? Who provides the tools that add value to the identifiers? (thereís no point having them if they are not useful)<br>
</blockquote><div><br></div><div>Jonathan Rees pointed this out to me too off-list. Just for the record, this isn't contrary but fully in line with what I was saying (or trying to say). Yes, I didn't elaborate that part, assuming, perhaps rather erroneously, that all this goes without saying, but I did mention that one part of this becoming a real solution has to be an institution with an in-scope cyberinfrastructure mandate that&nbsp;going in&nbsp;would make a commitment to sustain the resolver, including working with partners on the above slew of questions. The institution I gave was iDigBio; perhaps for some reason that would not be a good choice, but whether they are or not wasn't my point.</div>
<div><br></div><div>I will add one point to this, though. It seems to me that by continuing to argue that we can't go ahead with building a resolver that works (as far as technical requirements are concerned) before we haven't first fully addressed the institutional and social long-term sustainability commitment problem, we are and have been making this one big hairy problem that we can't make any practical pragmatic headway about, rather than breaking it down into parts, some of which (namely the primarily technical ones) are actually fairly straightforward to solve. As a result, to this day we don't have some solution that even though it's not very sustainable yet, at least proves to everyone how critical it is, and that the community can rally behind. Perhaps that's naÔve, but I do think that once there's a solution the community rallies behind, ways to sustain it will be found.&nbsp;</div>
<div><br></div><div>&nbsp; -hilmar</div></div>-- <br><div dir="ltr"><div>Hilmar Lapp -:- <a href="http://informatics.nescent.org/wiki" target="_blank">informatics.nescent.org/wiki</a> -:- <a href="http://lappland.io/" target="_blank">lappland.io</a><br>
</div><br></div>
</div></div>
</blockquote></div><br></div></div></blockquote></div><br></body></html>