Herzlich Willkommen zum Mitglieder-Wiki von Wikimedia Österreich.
Für ein Benutzerkonto schreibe bitte an verein [at] wikimedia.at
Datei:Erste Artikel in der deutschen Wikipedia - Versionsfragmente von extern.gekuerzt.pdf
Größe der JPG-Vorschau dieser PDF-Datei: 423 × 599 Pixel. Weitere Auflösungen: 169 × 240 Pixel | 339 × 480 Pixel | 542 × 768 Pixel | 1.239 × 1.754 Pixel. |
Originaldatei (1.239 × 1.754 Pixel, Dateigröße: 6,82 MB, MIME-Typ: application/pdf, 136 Seiten)
Diese Datei stammt aus Wikimedia Commons und kann von anderen Projekten verwendet werden. Die Beschreibung von deren Dateibeschreibungsseite wird unten angezeigt.
Inhaltsverzeichnis
Beschreibung
BeschreibungErste Artikel in der deutschen Wikipedia - Versionsfragmente von extern.gekuerzt.pdf |
Deutsch: *Häufig wird de:Polymerase-Kettenreaktion vom 12. Mai 2001 als erster Artikel der Wikipedia genannt – Es handelt sich hierbei jedoch nur um die älteste noch erhaltene Version eines Artikels in der Versionsgeschichte
|
Datum | |
Quelle | Daten [archive.org], compilation, chronological ordering of archived content (/not/ equal to the time of archiving), pdf bookmarks by cmuelle8 |
Urheber | Early Wikipedia autors, pdf compilation by cmuelle8 |
Andere Versionen |
Lizenz
Es ist erlaubt, die Datei unter den Bedingungen der GNU-Lizenz für freie Dokumentation, Version 1.2 oder einer späteren Version, veröffentlicht von der Free Software Foundation, zu kopieren, zu verbreiten und/oder zu modifizieren; es gibt keine unveränderlichen Abschnitte, keinen vorderen und keinen hinteren Umschlagtext.
Der vollständige Text der Lizenz ist im Kapitel GNU-Lizenz für freie Dokumentation verfügbar.http://www.gnu.org/copyleft/fdl.htmlGFDLGNU Free Documentation Licensetruetrue |
Howto / Source Code
The PDF was generated using a script. It's PD, be creative. It relies on wkhtmltopdf, pdftk and python. It also fixes some quirks in the sources, mainly bad character encodings. See fx() functions for the modifications done. The base64 blob contains built-in urls that are sourced to build the final pdf. The script also generates a bookmark hierarchy from the urls sourced. You can modify it after- wards if you need to.
#!/bin/bash
TMP="/dev/shm"
WK="$PWD/wkhtmltopdf -n" f="--footer"
# comment if qt patched version of wkhtmltopdf is not available
WK="$WK --image-dpi 100 --image-quality 85 --margin-bottom 1cm \
$f-left [doctitle] $f-right [page] $f-line $f-font-size 6 \
--zoom 0.${ZOOM:-80}" #--use-xserver --no-pdf-compression"
Y="import sys, urllib as ul
sys.stdout.write(ul.unquote_plus(sys.stdin.readline()[:-1]))"
function urldecode() { python2 -c "$Y"; }
function urlencode() { python2 -c "${Y/.un/.}"; }
function _ll() {
B="http://jansson.de/wikipedia/wiki.cgi?"
wget -qO - "${B}action=index" \
| grep -ao 'wiki.cgi[^"]\+' | cut -b 10- | uniq \
| sed -e '/^?\(HomeP\|RecentC\|action=editprefs\)$/d' \
| while read u
do
u="$(urldecode <<<"$u")" t="$u"
u="$(iconv -f utf-8 -t latin1 <<<"$u" | urlencode \
| sed -e 's,%2F,/,g;s,%28,(,g;s,%29,),g')"
echo "${B}$u" "$t"
uh="${B}action=history&id=$u"
echo "$uh" "$t art revhist"
wget -qO - "$uh" \
| grep -ao "name..revision..value..[0-9]\+" \
| grep -ao "[0-9]\+" \
| while read to
do
ur="${B}action=browse&id=$u&revision=$to"
echo "$ur $t art r$to"
ur="${ur/id=/diff=1&id=}&diffrevision=$((to-1))"
echo "$ur $t diff r$((to-1)) r$to"
done \
| sed -e '$d;1,2d'
done
}
function _ar() {
B="https://web.archive.org"
while read u t
do
wget "$B/save/$u" -O /dev/null
echo "$B/web/$u"
sleep 2
done
}
function bm() {
B="Bookmark" ; [[ -n "${1%%quellen.html}" ]] && \
echo -e "\n${B}Begin\n${B}Title: $1\n${B}Level: $2\n${B}PageNumber: $3"
}
function fx() {
echo -e "\n$1" | tee /dev/tty | grep -q '^http' 3>wk && wget -qkO wk "$1"
tr '\n' '\a' <wk | sed -e "\
s,<head>,\0<meta http-equiv=\"content-type\"\
content=\"text/html; charset=$(file -bi wk | grep -o "[^=]*$")\">,I;\
s,<button\|<input,\0 style=\"font-size:85%;border:1px solid darkgray;\
color:black;background-color:white;padding: 0.2em;\" ,gI;\
s,id=.p-cactions.,\0 style=\"visibility:hidden\" ,I;\
s,\(href=[ \"\']*\)wk,\1$1,gI" \
| case "$1" in \
*=index) sed -e "s,%28,(,g;s,%29,),g;s,%2F,/,g;\
s,%C3%84,%C4,g;s,%C3%96,%D6,g;s,%C3%9F,%DF,g;s,%C3%A4,%E4,g;\
s,%C3%A8,%E8,g;s,%C3%A9,%E9,g;s,%C3%B4,%F4,g;s,%C3%B6,%F6,g;\
s,%C3%BC,%FC,g" ;;
*20050216*Hauptseite) sed -e 's,<img[^>]*ujoma.01.jpg[^>]*>,,' ;;
*20050628*Hauptseite) sed -e 's,</\?img[^>]*>,,g' ;;
$Q) sed -ne '/^M4/,${/^M/d;p}' <<<"$URLS" ;;
*) cat ;;
esac | tr '\a' '\n' > "$2"
}
function _pdf() {
D="$TMP/$0.tmp~" J="jansson.de" A="archive.org"
rm -rf "$D" ; mkdir "$D" ; cd "$D"
pp=1 n=1 v="prevurl" w="http://[^/]*pedia"
while read url title
do
m="" fi=wk.html fo=$(printf %04d $n).pdf ; fx "$url" $fi </dev/null
c="$WK --title \"$url\" $fi $fo" ; { echo "$c"; $c; } &>>log || exit 1
if ! grep -q "$Q\|RecentChanges$" <<<"$url"
then
[[ -z "${url%%*$J*}" && -n "${v%%*$J*}" ]] && v="$url" \
m="$(bm "$J/wikipedia/wiki.cgi?" 1 $pp)"
# add top level bookmarks when year or domain changes
t="$(grep -o "$A/web/200." <<<"$url")"
l="$(grep -Po "/$w\.(com|org)" <<<"$url")" s="$l"
grep -q "[3-9]$" <<<"$t" && l="${l/.com/.org}"
[[ -n "$t" && -n "${v%%*$t*$l*}" ]] && v="${url/$s/$l}" l="$l/wiki/" \
m="$(bm "$t ${l/%*.com*/${l%/}.cgi?}" 1 $pp)"
fi
t="$(urldecode <<<"$url" | iconv -f iso8859-1 -t utf-8 | sed -e "\
s,/200[0-2]0[0-6].*com/$,\0HomePage,;s,^[^0-9?*]\+\(200.\|?\),,;\
s,^\([0-9]*\)/http://[^/]*/\(\|wiki/\?\(\|.cgi?\?\)\),\1 ,;\
s, $, Hauptseite,")"
l="$(grep -q "?action=[heb]\|from=" <<<"$url" && echo 3 || echo 2)"
grep -q "$Q" <<<"$url" && m="$(bm "Quellen / Epilog" 1 $pp)"
echo "$m$(bm "$t" $l $pp)" | tee -a bookmarks >/dev/tty
let "n++" "pp+=$(pdfinfo "$fo" | grep Pages | cut -b 7-)"
done
pdftk *.pdf cat output p ; t="$OLDPWD/$1"
pdftk p update_info_utf8 bookmarks output "$t" ; rm p
cat [bl]* | xz -9 >"$t.bookmarks+log.xz" ; cd "$OLDPWD"
}
URLS="$(uudecode -o - <<EOF | unxz | grep -v '^\( *\|#.*\)$'
begin-base64 644 urls.xz
/Td6WFoAAATm1rRGAgAhARwAAAAQz1jM4CGDBI1dADQdLOA6CVosH42u84VL
J2NdCVTwKjVJpnq1ldFbzTmucKT/3e6/Dg0SeG0/SyDI6GNCSW3IBy4RG5I0
Q48sUT8qC/d43LW24rzuiBCcUTCeovNWKTb7wbAOYJhz/zHqz7hFlDFd2la3
XiVXYg97zLcXwh+u52p8USp241dKM6mYYS3sPA7X/m+qdrvS6aYSho/+35RW
xuE6SlAZqWphzag46PCny8/cwp9G+Hw0GjkHzlLzgDV7Z2kKHgoLjhmS9UYv
QWX7So764rZuV32T+9nBRW2JP9ZOi5oTRldE5I/L2omcpwCJ7LQSQBqC8bps
ZZ6jmLCvKlMPwfNl0xuEWhSR/JRbr+g4QQ5tHs39sRPvafnWZdoHJM6LFMxG
F+dbAiXQIXWOwLrZ2DFiG2R81HSZIy/BiWHjRbd8nK5U+AVxCTD07oettHfx
NYLbXI+nHlXEg3ksNUWLClto72H4z/DITUTO6DZw19or5fsTnP2MQq3IdG1C
6PCm1/Xvf8zkWmDv1pVi3YfH5p76iMeGDBGxXnak0U9uDSv63Vs4EhjDt3Pz
KY87XtIeQTR0E07d6dsaDIUzXTcFlQXAljSd2mdzOCNzulH+UnRlOMRkePU4
TSUF3/NMK2kAL326+tMtkjOqAy+yRAoI3MnBy5JkdxOr30pDVVSJ8eeYxIAY
fOlmLhxi37XGwX9WYCfkVjgSMgEw2YHE6rLrJm6c0KfKuKe/2Tor82mQ7026
TSigavrXkiBfCb2TrcH+ZqPtIvMWrn7HgOH0pV/I8lY1ntw58Vz0nz6prhzj
zUhBYZCloCVVLd07wL9xOVgchgbwv8oARf8RJTZ4m0Ralfbg0yYlowYupy78
IdGQG7oPDoRQQCJY+4BCMKtNQMtfBBcynwy/22NAbdvFGGB3OgYG30fGKv02
oF5Jtol3xrWUWjr/dFtrlz2yL2PPOzTYzlmGRiL+G9XW9EbRmcpp7ob6JAKQ
fhaYMp/C4Cqe3doyfY/BssgJUXmKBxDbg54KO41Gv1x/SU5f6qvYfjRzB3Xb
zNlj0ApKoyhlnB7i8yCDIjyT6udqKbszRXA8OkufmHPiD8Vtn/9ctZfBCYwB
nLsFyM+5Du+CwvoRfew03lqQyZ97ZMSmrDBMO4KPIP+IpwOzmKdQtZGPZLHy
gwXSOWGjUeJnPeGU2bTyfYLX3OnaD4gZQw6hjjpuarwMap8W54CA/a0Ehp5b
QVqPPVkUtBt+izYOtCGkBDZddcQsBiAJmJCSjalQCl04ikyZorR0wzeToOK4
C4GZCtdkrju4hAmcKrZ0rUeNjL8YwluR46kqPwRROnQMuxX5ePoVn6kZU6yp
j56fT2jWOdHENNoiwoNZwOWpECbOekEPp9w1xM9aVCYZG7fj8w9IXGCaehJR
qeuQozYNLCADZzftoRlmhRBlxI2NHlJQ0B6XONKFG0BMtd22Ev7lJWnK7RLU
5gZ/b++Vwn0MpyBIs0UZCH6UpEiVdAQ+1+M3noZN+1AAg9+5q3GrSsTe8YML
UEA3DH3faMGDv4GOpHEbm78NZCALo0836D0AAAAAImB53mGrqIwAAakJhEMA
AH/kseCxxGf7AgAAAAAEWVo=
====
EOF
)"
P="$(sed -ne '1,/^M2/{/^M/d;p}' <<<"$URLS")" Q="quellen.html"
shortpdf="$P$(echo ; sed -ne '/^M2/,/^M3/{/^M/d;p}' <<<"$URLS")"
alphapdf="$P$(echo ; sed -ne '/^M3/,/^M4/{/^M/d;p}' <<<"$URLS")"
llmodpdf="$alphapdf"
case "${CMD:=$1}" in
li*) _ll > "$0.ll" ;;
ar*) _ar < "$0.ll" 1>"$0.log.archive" 2>"$0.log.wget" ;;
pdf*) CMD="shortpdf" ;&
*pdf) _pdf "${2:-erste_artikel.${CMD/pd/.pd}}" < <(\
{
[[ -f "$3" ]] && cat "$3" || echo "${!CMD}"
case "$CMD" in
(al*) _ll | tee "$0.ll" ;;
(ll*) [[ -f "$5" ]] && cat "$5" \
|| [[ -f "$0.ll" ]] && cat "$0.ll" \
|| echo "no linklist!" && exit 1 ;;
esac | grep -v "&revision=[0-9]\+ " | sort -k 2,2 -k 3,3 -k 4r
[[ -f "$4" ]] && cat "$4" || echo "$Q"
} ) ;;
*) echo -e "Compiles wiki urls from $0.ll to a single pdf,\n"\
"[short|alpha]pdf commands default to builtin lists.\n"\
"usage: $0 [ shortpdf | alphapdf | [ linklist | archive | llmodpdf ]]"
esac
Changing Bookmarks / Inhaltsverzeichnis ändern
# you can change bookmarks / TOC e.g. with pdftk
pdftk source.pdf dump_data_utf8 | grep ^Bookmark > bookmarks
# edit bookmarks file, then
pdftk source.pdf update_info_utf8 bookmarks output changed.pdf
# if pages need to be reordered, there's e.g. pdfshuffler
# https://sourceforge.net/projects/pdfshuffler/
# https://wiki.ubuntuusers.de/PDF-Shuffler/ (german)
In dieser Datei abgebildete Objekte
Motiv
28. Februar 2016
Dateiversionen
Klicke auf einen Zeitpunkt, um diese Version zu laden.
Version vom | Vorschaubild | Maße | Benutzer | Kommentar | |
---|---|---|---|---|---|
aktuell | 03:44, 9. Mär. 2016 | 1.239 × 1.754, 136 Seiten (6,82 MB) | wikimediacommons>Cmuelle8 | Inhaltsverzeichnis / Lesezeichen strukturiert Links verlinkt Ausgewählte Hauptseiten |
Dateiverwendung
Die folgenden 2 Seiten verwenden diese Datei:
Metadaten
Diese Datei enthält weitere Informationen, die in der Regel von der Digitalkamera oder dem verwendeten Scanner stammen. Durch nachträgliche Bearbeitung der Originaldatei können einige Details verändert worden sein.
Software | pdftk 2.02 - www.pdftk.com |
---|---|
Umwandlungsprogramm | itext-paulo-155 (itextpdf.sf.net-lowagie.com) |
Verschlüsselt | no |
Papierformat | 595 x 842 pts (A4) |
Version des PDF-Formats | 1.3 |