Yes, many engineers used to take that position regarding software usability too.  If you use the software incorrectly, it's your own fault if it crashes, destroys your data, corrupts your hard drive, or whatever.  Then we started making software that handles exceptions.  The world is a nicer place.<div>
<br></div><div>It's not a matter of wielding clout.  My point about Photoshop is not that Adobe cares one iota about what LaTeX does.  I'm trying to emphasize that there will be *very* many files which exhibit this bug.  You can choose to fail processing these files, or you can give inconsistent results (vis, pdfTeX vs. XeTeX), or you can try to provide the most useful behavior.  Engineering is about trade-offs.</div>
<div>.<br><br><div class="gmail_quote">On Fri, Dec 10, 2010 at 6:23 PM, Mark Hale <span dir="ltr"><<a href="mailto:historical.linguist@gmail.com">historical.linguist@gmail.com</a>></span> wrote:<br><blockquote class="gmail_quote" style="margin:0 0 0 .8ex;border-left:1px #ccc solid;padding-left:1ex;">
In my world if an application writes a file which simultaneously<br>
asserts that the single image in that file is at 96dpi and at 72dpi,<br>
the application is creating "incorrect" files. I think this means<br>
that I live in a world where logic trumps bad programming.<br>
<br>
Being a standard tool does not make you bug-free, it merely<br>
gives you the political clout to compel others to deal with your<br>
buggy software. I wouldn't personally be surprised if many of<br>
the people involved with projects such as Xe(la)tex don't feel<br>
particularly strongly motivated by attempts to wield<br>
that clout.<br>
<font color="#888888"><br>
Mark<br>
</font><div><div></div><div class="h5"><br>
> In the printing and publishing world, at least in my experience, Photoshop<br>
> is *the* de facto standard image manipulation tool.  Any file that comes<br>
> from Photoshop is, by definition, "correct."<br>
> -pd<br>
</div></div></blockquote></div><br></div>