Support doing coordinate transforms on the CPU
authorDavid Gow <[email protected]>
Sun, 20 Apr 2014 04:31:41 +0000 (12:31 +0800)
committerDavid Gow <[email protected]>
Sun, 20 Apr 2014 04:31:41 +0000 (12:31 +0800)
commit6ad7439e8ebf969fcd2d3a710a4b16e2b1ee131f
tree36ce92f7fe56e3180128e7b636425a71c27ee018
parent700f1449af19115ff2bbe50ad67ea7c73f9aa5cd
Support doing coordinate transforms on the CPU

So because OpenGL (by default at least), does everything with
32-bit IEEE floats, even when our "Real" type is a double, we lost
precision when rendering it.

This commit adds support for running the coordinate transform on the
CPU using the Real datatype, and only truncating the results, making
things work properly with doubles. This will be slower on documents
with a large number of objects, but there's no real difference in
our unoptimized code at the moment.

Right-click to switch between CPU and GPU transforms.
bin/ipdf
src/main.h
src/real.h
src/screen.cpp
src/view.cpp
src/view.h

UCC git Repository :: git.ucc.asn.au