www.schwarzbuch.de

www.schwarzbuch.de
Im Schwarzbuch erfasst der Bund der Steuerzahler über 100 Beispiele öffentlicher Steuergeldverschwendung. Mit dem Schwarzbuch sensibilisieren und mahnen wir. Wir nennen Ross und Reiter, sorgen für Transparenz, klären auf und stellen Zusammenhänge her! Wir sprechen Fehlentscheidungen und den unsachgemäßen Umgang mit Steuergeld an. Denn das schärfste Schwert im Kampf gegen die Verschwendung ist eine sensibilisierte und wachsame Öffentlichkeit. Das Schwarzbuch 2013 „Die öffentliche Verschwendung“ wurde am 17. Oktober 2013 in Berlin veröffentlicht. Hier können Sie sich die Fälle nach Bundesland sortiert anschauen. Hier sehen Sie die Fälle nach der Art der Verschwendung geordnet. Sie können das Schwarzbuch bestellen oder als PDF-Version herunterladen.

Telepolis: Meinungskluft um die Ukraine

Telepolis: Meinungskluft um die Ukraine
An den aktuellen Debatten über die außenpolitische Berichterstattung beeindruckt vor allem die mangelnde Lernfähigkeit von Medieninstitutionen und Journalisten. Seit der äußerst erfolgreichen Kuwait-Propaganda von Hill & Knowlton oder dem gescheiterten Somalia-Einsatz des US-Militärs im Jahr 1992, als die Öffentlichkeit unter dem Stichwort CNN-Effekt erstmals kritisch diskutierte, welchen Einfluss die Medien auf Kriege haben können, ist bald ein Vierteljahrhundert vergangen. Vor mehr als zehn Jahren gab der ebenfalls mithilfe einer Propaganda-Operation angezettelte Irak-Krieg den Anlass für zahlreiche wissenschaftliche Analysen wie auch für reichlich journalistische Selbstkritik. Gleichwohl spielt sich – und täglich grüßt das Murmeltier – bei jeder internationalen Krise das hinlänglich bekannte Szenario von neuem ab. Wie stark Nichtwissen mit der Bereitschaft zu militärischen Lösungen korrespondiert, beschrieben kürzlich drei US-Wissenschaftler im Blog der Washington-Post. Sie hatte

Washington Post: Here’s what you find when you scan the entire Internet in an hour

Washington Post: Here’s what you find when you scan the entire Internet in an hour
Until recently, scanning the entire Internet, with its billions of unique addresses, was a slow and labor-intensive process. For example, in 2010 the Electronic Frontier Foundation conducted a scan to gather data on the use of encryption online. The process took two to three months. A team of researchers at the University of Michigan believed they could do better. A lot better. On Friday, at the Usenix security conference in Washington, they announced ZMap, a tool that allows an ordinary server to scan every address on the Internet in just 44 minutes. The EFF team used a tool called Nmap that sends a request to a machine and then listens for the recipient to reply. These requests can be conducted in parallel, but keeping records for each outstanding request still creates a lot of overhead, which slows down the scanning process. In contrast, ZMap is “stateless,” meaning that it sends out requests and then forgets about them. Instead of keeping a list of oustanding requests, ZMap cleverl

zmap.io: ZMap – The Internet Scanner

zmap.io: ZMap – The Internet Scanner
ZMap is an open-source network scanner that enables researchers to easily perform Internet-wide network studies. With a single machine and a well provisioned network uplink, ZMap is capable of performing a complete scan of the IPv4 address space in under 45 minutes, approaching the theoretical limit of gigabit Ethernet. ZMap can be used to study protocol adoption over time, monitor service availability, and help us better understand large systems distributed across the Internet. While ZMap is a powerful tool for researchers, please keep in mind that by running ZMap, you are potentially scanning the ENTIRE IPv4 address space and some users may not appreciate your scanning. We encourage ZMap users to respect requests to stop scanning and to exclude these networks from ongoing scanning. We suggest that users coordinate with local network administrators before performing any scans and we have developed a set of scanning best practices, which we encourage researchers to consider. It

The Anatomy of a Search Engine

The Anatomy of a Search Engine
In this paper, we present Google, a prototype of a large-scale search engine which makes heavy use of the structure present in hypertext. Google is designed to crawl and index the Web efficiently and produce much more satisfying search results than existing systems. The prototype with a full text and hyperlink database of at least 24 million pages is available at http://google.stanford.edu/ To engineer a search engine is a challenging task. Search engines index tens to hundreds of millions of web pages involving a comparable number of distinct terms. They answer tens of millions of queries every day. Despite the importance of large-scale search engines on the web, very little academic research has been done on them. Furthermore, due to rapid advance in technology and web proliferation, creating a web search engine today is very different from three years ago. This paper provides an in-depth description of our large-scale web search engine — the first such detailed public descr

Dice News: Speed Test: Comparing Intel C++, GNU C++, and LLVM Clang Compilers

Dice News: Speed Test: Comparing Intel C++, GNU C++, and LLVM Clang Compilers
Conclusion: It’s interesting that the code built with the g++ compiler performed the best in most cases, although the clang compiler proved to be the fastest in terms of compilation time. But I wasn’t able to test much regarding the parallel processing with clang, since its Cilk Plus extension aren’t quite ready, and the Threading Building Blocks team hasn’t ported it yet.