Linkhero
 
 

Lenovo Tab S8: Android-Tablet mit Bay Trail für 200 Euro


Posted on: September 20th, 2014 by linkhero
 

Lenovo Tab S8

Lenovo hat das Tab S8 vorgestellt. Das 8-Zoll-Tablet basiert auf einem Atom Z3745 mit vier Kernen und nutzt Android Kitkat. Anders als Asus’ Memo Pads löst das Display mit 1.920 x 1.200 Bildpunkten auf.

Das Lenovo Tab S8 ist das erste Android-Intel-Tablet des chinesischen Herstellers – auf früheren Modellen wie dem Miix 2 oder dem Thinkpad 10 ist Windows 8.1 installiert. Das Tab S8 wiegt laut Lenovo leichte 299 Gramm, misst 124 x 210 x 7,9 Millimeter und verfügt über ein 8-Zoll-Touchdisplay.

Das IPS-Panel löst mit 1.920 x 1.200 Pixeln und somit 283 ppi auf (wenngleich Lenovo in der Pressemitteilung von FHD spricht), was für ein Android-Tablet dieser Größe vergleichsweise viel ist – Asus’ Memo Pads haben nur 1.280 x 800 Bildpunkte.

Als System on a Chip verbaut Lenovo Intels Atom Z3745 mit vier Silvermont-Kernen (bis zu 1,86 GHz) und HD Graphics. 2 GByte Arbeitsspeicher und 16 GByte eMMC mit Option auf bis zu 64 GByte runden das Paket ab. Durch den integrierten 4.290-mAh-Akku soll das Tab S8 rund 6,5 Stunden durchhalten.

Die rückwärtige Kamera mit Blende f/2.2 hat 8 Megapixel und die Frontkamera 1,6 Megapixel. Somit sind nur mit der größeren Kamera 1080p-Videos möglich, was für den Preis üblich ist. Lenovo bringt das Tab S8 im vierten Quartal 2014 für 200 Euro in den Handel, dieses Modell bietet Bluetooth 4.0 und WLAN nach n-Standard.

Zusätzlich gibt es eine teurere LTE-Variante mit Intels XMM7160-Funkmodul. Beide Versionen des Tab S8 gibt es in den Farben schwarz, weiß, blau und gelb.

 

Zuerst veröffentlicht auf:

www.golem.de/news/


 
 
 

Der Trend geht weg vom Personal Computer


Posted on: September 19th, 2014 by linkhero
 

Auch im Jahr 2013 sind die Verkäufe von Desktop-PCs und Notebooks zurückgegangen. Die Umsatzzahlen für Tablet-Computer und generell mobile Geräte sind hingegen erneut gestiegen. Die Frage ist, wird der klassische PC bzw. das klassische Notebook langfristig aussterben? Bisher ist immer noch so, dass zum produktiven Arbeiten sich nur ein Desktop-PC oder ein Notebook eignen. Eine virtuelle Tastatur oder auch eine Spracherkennungssoftware ist immer noch nicht so weit, dass sie einen herkömmlichen Computer ersetzen kann. Vom EDV-Service habe ich gehört, dass im letzten Jahr weniger Privatkunden und dafür mehr Firmenkunden die Dienstleistungen in Anspruch genommen haben. Das liegt daran, dass Tablet-Computer und dergleichen für das Surfen und einkaufen im Internet und zum Spielen genutzt werden. Notebooks und Desktop-PCs hingegen sind nach wie vor die Arbeitspferde in den Büros und im Außendienst. Die klassischen PCs werden wahrscheinlich erst dann sterben, wenn es Geräte gibt, die sich zum Beispiel in einer Kombination aus Sprache und Augenkontakt bedienen lassen und eine Tastatur und auch eine Maus gar nicht mehr gebraucht werden. Schon heute werden Autos vorgestellt, in denen man manche Funktionen per Blickkontakt auslösen kann. In ein paar Jahren wird das der Standard werden. Und wer weiß, in 10-20 Jahren könnte es sein, dass man in der Lage ist, einen Chip in das Gehirn einzupflanzen, der die Gedanken in einen Computer übertragen kann. Oder anstatt eines großen Bildschirms und weiterer Hardware setzten sich einfach eine Brille auf, mit der man sämtliche Funktionen ausführen kann. Für Dienstleister für IT-Service bedeutet der ständige Fortschritt auch ständige Weiterbildung. Jedes neue Gerät hat neue Features und Funktionen und die größere Vielfalt an Betriebssystemen wie Android, Windows Mobile oder neue Linux-Derivate fordert einen erhöhten Aufwand an Informationsbeschaffung.  Wir werden sehen, wie sich weiter entwickelt. Wie würde ein Mensch aus dem heutigen Marketingbereich sagen? Es bleibt spannend! Diesen Spruch kann man eigentlich für alles, was die Zukunft betrifft, anwenden, denn das Unbekannte ist eigentlich immer spannend.


 
 
 

Weltweiter Betriebssystem-Markt: Windows 8.1 überholt Windows 8


Posted on: September 18th, 2014 by linkhero
 

Neuen Zahlen zur weltweiten Verbreitung von Betriebssystemen von StatCounter zufolge hat Windows 8.1 im August erstmals Windows 8 überholt. Windows 8.1 liegt mit 7,5 Prozent sogar deutlich vorne: Windows 8 kommt nur noch auf 6 Prozent.

“Nach einer durchwachsenen Reaktion auf Windows 8, vielleicht aufgrund seiner radikal erneuerten Optik, scheint Windows 8.1 User gewinnen zu können”, kommentiert StatCounter-CEO Aodhan Cullen. Betrachtet man nur Deutschland, liegt Windows 8.1 allerdings schon seit April vor Windows 8. In den USA war der Wechsel im Mai erfolgt.

Das StatCounter-Diagramm verzeichnet das langsame Ende von Windows XP (blau) und dien Aufstieg von Windows 8.1 (orange).

Zu bedenken ist auch, dass die als etwas zuverlässiger angesehenen Zahlen von Net Applications einen geringeren Abstand zwischen beiden Betriebssystemen ausweisen. Dort kommt Windows 8.1 auf 7,1 Prozent und Windows 8 auf 6,3 Prozent.

Windows 7 führt weltweit mit jetzt 50,3 Prozent Marktanteil. Gegenüber Juli mit 50,2 Prozent war erneut ein leichter Zuwachs zu verzeichnen. Das vom Support abgeschnittene Windows XP liegt mit 12,9 Prozent weiter auf Rang zwei. An dritter Stelle finden sich Apples Mac-OS-Versionen, die zusammen auf 7,8 Prozent kommen. Die Statistik, die Betriebssysteme für Desktops und Notebooks, Tablets und Konsolen umfasst, enthält zudem auch iOS mit 6,8 Prozent Marktanteil.

Über das 13 Jahre alte Windows XP sagt StatCounter, es “weigert sich zu sterben”. Der Support hatte im April geendet. Damals kam das OS noch auf 27 Prozent Marktanteil.

 

Homepage:

http://www.zdnet.de/88204508


 
 
 

Der PC-Markt erholt sich entgegen der Vorhersagen


Posted on: September 18th, 2014 by linkhero
 

Zugegeben, er ist reichlich abgedroschen, aber hier stimmt der Spruch: Totgesagte leben länger. Ich meine das in Beziehung zum PC-Markt. Sowohl die Verkäufe von Desktop-PC’s als auch die von Laptops haben sich nach einem starken Einbruch in den letzten Jahren jetzt wieder erholt. Ganz überraschend kommt das nicht. Der Rückgang der PC-Verkäufe hing vor allem mit dem großen Erfolg der Tablet-Computer, Smartphones und ipads zusammen. Diese Geräte versprachen letztendlich mehr, als sie halten konnten. Man muss einfach feststellen, dass Smartphones oder Pads/Tablets einfach einen Desktop-PC bzw. Laptop nicht vollwertig ersetzen. Bei der Größe der Displays gibt es schon das erste Problem. Für viele, vor allem ältere Nutzer ist der Bildschirm auf den mobilen Endgeräten schlicht zu klein. Genauso sieht es mit der Speicherkapazität aus. Viel Platz ist auf dem lokalen Speicher der Smartphones und Tablets nicht und eine große Mehrheit der Nutzer möchten nicht die Möglichkeit der Cloud-Speicherung nutzen, sie vertrauen der Technik einfach nicht. Dies umso mehr, weil kürzlich Nacktfotos von Prominenten von gehackten Accounts gestohlen und veröffentlicht wurden. Ein weiterer Nachteil der sogenannten mobile devices ist die teilweise sehr eingeschränkte Möglichkeit, externe Geräte wie Festplatte, Stick oder Drucker anzuschließen. Schließlich ist einer der bedeutendsten Nachteile die Eingabe an sich. Auch, wenn es externe Tastaturen gibt, viele Leute können sich daran einfach nicht gewöhnen und gehen zur klassischen Variante zurück und arbeiten wieder an ihrem Windows-PC. Auch bei den Reparaturmöglichkeiten schneiden Smartphones und Tablets wie das iPad schlechter ab. Obwohl die Geräte für den mobilen Einsatz konzipiert sind, sind sie doch empfindlicher, als man denkt. Ein Display-Austausch oder ein Defekt des Touchscreens kann unverhältnismäßig teuer werden, das gilt übrigens auch für eine Datenrettung, falls das Gerät überhaupt nicht mehr funktioniert. Das ist bei Windows PC’s oder Laptops schon teuer, dafür sind aber die Erfolgsaussichten erheblich besser.

 

Als Fazit lässt sich sagen, dass die Vorhersagen vor einigen Jahren so nicht eingetroffen sind. Die Leute schätzen gewohnte Arbeitsmittel und haben gemerkt, dass allein ein Tablet oder Pad nicht ausreicht, um vollständig arbeitsfähig zu sein.


 
 
 

Lassen Sie Ihre Netzwerkverbindungen über die Stromleitungen laufen


Posted on: September 17th, 2014 by linkhero
 

In den meisten Haushalten in Deutschland gibt es mittlerweile mehr als ein internetfähiges Gerät. Oft hat man noch einen Desktoprechner einen oder zwei Laptops und mehrere Smartphones je nach Größe der Familie. In vielen Fällen ist ein Router alleine damit überfordert, alle Räume der Wohnung oder des Hauses mit einem stabilen Netz zu versorgen. Nun hat man die Möglichkeit, das vorhandene WLAN-Netz mit einem oder zwei Repeatern zu erweitern, allerdings wird es immer so bleiben, dass eine WLAN Verbindung immer etwas weniger stabil ist. Für manche Anwendungen wie zum Beispiel große Downloads oder Online-Spiele ist es immer besser, eine stabile LAN-Verbindung zu haben. Außer in hochwertigen Neubauten sind für gewöhnlich in Wohnungen und Häusern keine Netzwerkkabel verlegt, so dass dies nachträglich eingebaut werden müsste. Für viele ist es ein zu großer Aufwand, das ganze Haus neu zu verkabeln. Die Lösung für dieses Problem ist das so genannte d-LAN, eine Technologie, die eine LAN-Verbindung über die vorhandenen Stromleitungen herstellt. Dafür gibt es auf dem Markt Adapter, die man einfach in die Steckdose steckt und so das Haus vernetzt. Wichtig dabei ist, dass man möglichst die Adapter direkt in eine Wandsteckdose steckt, der Betrieb in einer Mehrfachsteckdose kann Störungen verursachen. Als zusätzliches Feature gibt es auch d-LAN-Adapter, die gleichzeitig als WLAN-Hotspot fungieren. Damit hat man auch im ganzen Haus Empfang mit einem Smartphone, ipad oder Notebook, was natürlich extrem praktisch ist. Ein zusätzlicher großer Vorteil ist neben der Einsparung der Verkabelung, dass über eine LAN Verbindung wesentlich schneller Daten innerhalb des Netzes transportiert werden können. Wenn Sie zum Beispiel eine Netzwerkfestplatte haben und darüber Filme oder Musik streamen, haben sie eine spürbare besseren Datenstrom. Laut Anleitung ist die Einrichtung der d-LAN-Adapter relativ simpel, allerdings hatte ich Probleme, mein Kabelmodem damit zu verbinden. Ein Computerexperte, der mir empfohlen wurde und hier bei uns einen PC-Service anbietet, konnte mir das ausführlich erklären. Wenn man so wie ich nur ein Kabelmodem hat, kann darauf auch nur ein Computer gleichzeitig ins Netz. Aus diesem Grunde brauchte ich noch einen Router, der das Signal des Kabelmodems sozusagen aufteilt. Der Laptop-Service baute mir dann die Konfiguration zusammen. Das Kabel vom Kabelmodem wurde in den WAN-Port des Routers gesteckt und von einem der Ports für dein Kabel in den ersten d-LAN Adapter. Damit das Ganze funktioniert, muss man, nachdem man alles verkabelt hat, alles ausschalten und zuerst das Kabelmodem neu starten, dann den Router und dann nacheinander die Adapter. Mit dieser Konfiguration hat es auch auf Anhieb geklappt und wir haben im ganzen Haus ein stabiles Netzwerk. Ich kann die Alternative mit d-LAN nur jedem empfehlen.


 
 
 
Vermissen Sie den Windows-Papierkorb, stellen Sie ihn im Nu wieder her. Das klappt auch mit Tuning-Software.
Der Papierkorb ist ein praktisches Werkzeug: Alle Dateien, die Sie löschen, landen zunächst in diesem Auffangbecken. Erst wer den Papierkorb explizit leert, löscht die darin gespeicherten Daten – sodass sie mit Bordmitteln nicht wiederzubeschaffen sind. Bei Bedarf stellen Sie versehentlich gelöschte Dateien mit wenigen Mausklicks wieder her. Fehlt das entsprechende Desktop-Symbol bei Ihnen, hat es jemand versehentlich oder absichtlich ausgeblendet. Es könnte auch eine Tuning-Software dafür verantwortlich sein.

Mithilfe des Fensters Desktopsymboleinstellungen zaubern Sie den Papierkorb wieder ans Tageslicht.

Das Wiederherstellen des Papierkorbs ist schnell erledigt: Klicken Sie mit der rechten Maustaste auf eine freie Stelle des Desktops. Nach einem Klick auf die Kontextmenü-Option Anpassen wählen Sie im sich öffnenden Fenster oben links Desktopsymbole ändern. Es öffnet sich ein weiteres Fenster. Indem Sie Häkchen vor den gelisteten Funktionen setzen, bringen Sie sie auf den Desktop. Stellen Sie sicher, dass vor Papierkorb ein Haken gesetzt ist. Mit Klicks auf Übernehmen und OKspeichern und verlassen Sie das Konfigurations-Fenster.

 

Alternative Vorgehensweise

Wer die TuneUp Utilities 2014 nutzt, stellt den Papierkorb mithilfe der Windows-Optimierungs-Software leicht wieder her. Unter Windows XP ist die Nutzung einer solchen Software die einzige Möglichkeit, einen fehlenden Papierkorb wiederzubeschaffen: Der Papierkorb ist unter XP zwar nicht per Einstelldialog ausblendbar, fehlt er aber, sind zur Problemlösung umständliche Eingriffe in die Registrierungs-Datenbank nötig. Nach dem Start von TuneUp 2014 wechseln Sie zur Kategorie Probleme beheben und klicken auf Symbol „Papierkorb“ wird nicht angezeigt. Nach zwei Klicks auf Weiter ist der Papierkorb zurück. Abschließend wählen Sie Fertig stellen.

In Internet-Foren kursieren einige falsche Tipps zum Wiederherstellen des Papierkorbs. Folgende Varianten funktionieren nicht: Im Startmenü nach der Funktion suchen und sie auf den Desktop ziehen, eine Datenrettungs-Software nutzen, unter XP nach einem Rechtsklick auf den Desktop Eigenschaften, Desktop, Desktop anpassen, Papierkorb sowie Wiederherstellenwählen. Mitunter empfehlen einige Foren-Nutzer, den Papierkorb nach dem Papierkorb zu durchsuchen – ein gleichermaßen nutzloser wie absurder Vorschlag.

Papierkorb im Papierkorb

Ist es überhaupt möglich, den Papierkorb in den Papierkorb zu verschieben? Nein – es ist nur vorgesehen, ihn durch das Entfernen eines Häkchens unsichtbar zu machen. Etwas anders sieht das mit Verknüpfungen des Verzeichnisses aus: Die können Sie tatsächlich in den virtuellen Mülleimer befördern. Fehlt der originale Papierkorb, klappt die Wiederstellung mithilfe solcher Verknüpfungen aber nicht, da er dort nach dem Ausblenden nicht auftaucht.

 
 
Website:
http://www.computerbild.de/artikel/

 
 
 

Groß, größer – Alibaba. Der chinesische Onlinehändler wird an der New Yorker Börse Geschichte mit einem Aktiendebüt in noch nie da gewesenem Ausmaß schreiben. 21,1 Mrd. Dollar (16,3 Mrd.Euro) will die Firma zum Start einsammeln, wie aus den am vor dem Wochenende veröffentlichten Unterlagen hervorgeht, die Alibaba bei der US-Börsenaufsicht SEC eingereicht hat.

Angebot

Zunächst sollen 320 Millionen Aktien in einer Preisspanne zwischen 60 und 66 Dollar angeboten werden. Die Preisfestsetzung wird in Finanzkreisen am 18. September erwartet.

Das ist allerdings nur der Anfang: Durch Zusatzrechte, die Alibaba Investmentbanken eingeräumt hat, könnten sogar bis zu 24,3 Mrd. Dollar erlöst werden. Das Unternehmen von Jack Ma – dem reichsten Chinesen, der in seinem Heimatland wie ein Rockstar gefeiert wird – überflügelt alle bisherigen Börsengänge weltweit und steigt schlagartig zu einem der größten Titel am US-Aktienmarkt auf. Die US-Internet-Riesen Amazon können sich warm anziehen.

Vergleiche

An den Finanzmärkten dürfte es das “nächste große Ding” werden und selbst Facebook in den Schatten stellen: Mit dem Emissionserlös wollen die Chinesen selbst Facebook-Gründer Mark Zuckerberg übertrumpfen, der 2012 rund 16 Mrd. Dollar einnahm.

Ausgemachte Sache ist der Erfolg für Experten aber noch nicht, sie sehen Alibabas Weg an die Wall Street als Prüfstein für den von politischen Krisen gebeutelten Aktienmarkt insgesamt: “Der Börsengang ist auf jeden Fall ein Gradmesser für die derzeitige Marktstimmung”, sagt Händler Andreas Lipkow vom Vermögensverwalter Kliegel & Hafner.

Was die Hoffnungen der Anleger nach oben schnellen lässt, ist die Aussicht, an gleich zwei potenziellen Megatrends dieses Jahrzehnts teilhaben zu können: dem Aufstieg der kaufkräftigen chinesischen Mittelklasse und dem Siegeszug des Online-Handels.

Denn wenn die Chinesen Güter des täglichen Bedarfs oder Markenwaren über das Internet bestellen, nutzen sie zumeist Alibabas Auktionshaus Taobao oder dessen Online-Kaufhaus Tmall.

Dominanz

In China, das als größter Onlinemarkt weltweit gilt, hat Alibaba eine Vormachtstellung. Auf den großen Plattformen des Konzerns – Taobao, Tmall und Juhuasuan – wurden im vergangenen Jahr Geschäfte über 248 Mrd. Dollar abgewickelt. Das Unternehmen mit rund 300 Millionen Kunden und 25.000 Beschäftigten wickelt rund 80 Prozent aller privaten Internet-Einkäufe in der Volksrepublik ab. Über Alibaba-Portale werden damit weitaus mehr Waren verkauft als bei Amazon und Ebay zusammen.

Analysten zufolge könnte die größte Gefahr für das Geschäftsmodell von Alibaba aus China selber erwachsen: So liefere sich Alibaba mit dem Suchmaschinenbetreiber Baidu und dem Internet-Unternehmen Tencent einen erbitterten Wettbewerb in allen Online-Marktsegmenten, gibt Experte Jost Wübbeke vom Mercator Institute for China Studies zu bedenken. Der Konzern ist auch rasant gewachsen. Gerade das rasante Expansionstempo kann bei den umworbenen Anlegern die Frage aufwerfen, ob Alibaba den Überblick zu verlieren droht. So gab es bereits Unregelmäßigkeiten bei der Rechnungslegung der Filmproduktionstochter Alibaba Pictures.

Definition

Analyst Carlos Kirjner von Bernstein Research pocht deshalb darauf, dass Alibaba während der wohl Anfang September startenden Werbetour bei potenziellen Investoren detailliert darlegt, wie sich das Unternehmen eigentlich selber definiert und wo es welche Geldquellen mit den Erlösen aus dem Börsengang erschließen will.

Alibaba wird an der Wall Street ein Exot sein. Trotz seiner schieren Größe – das Unternehmen bewertet sich mit bis zu 163 Mrd. Dollar – ist es außerhalb Chinas vergleichsweise unbekannt. Die Konzernstruktur mit etlichen Beteiligungsverzweigungen und diskreten Eigentumsverhältnissen ist für Außenstehende nur schwer zu durchblicken. Das ist ein Kritikpunkt, den Analysten immer wieder anbringen. Auch der SEC hat dies wohl Magenschmerzen bereitet, sonst wäre der Börsengang schon früher erfolgt.

Alibaba will die Platzierung der unter dem Kürzel BABA an der New Yorker Börse zu notierenden Aktien noch in diesem Monat abschließen.

Der größte Alibaba-Anteilseigner, die japanische Investmentgesellschaft Softbank, wird seine Beteiligung beim Börsengang von 34,1 auf 32,4 Prozent abbauen. Der zweitgrößte Investor, das US-Internet-Urgestein Yahoo, reduziert von 22,4 auf 16,3 Prozent. Die Beteiligung von Alibaba-Gründer und -Chef Jack Ma sinkt von 8,8 auf 7,8 Prozent. (APA, 7.9.2014)

 

Siehe hier:

http://derstandard.at/2000005257558/


 
 
 

Firefox 32 steht zum Download bereit


Posted on: September 15th, 2014 by linkhero
 

Firefox 32 ist erschienen und bietet wichtige Verbesserungen sowohl beim Passwort-Manager als auch beim Malware-Schutz.

Mozilla bereitet derzeit die Veröffentlichung von Firefox 32 vor. Die neue Version steht bereits auf den FTP-Servern von Mozilla zum Download bereit. In Kürze dürfte dann auch die offizielle Veröffentlichung folgen. Wer nicht so lange warten möchte, der kann Firefox 32 hier bereits jetzt herunterladen.

Das neue Firefox 32 bietet vor allem Verbesserungen im Bereich Sicherheit. Der neue Passwort-Manager wurde deutlich aufgepeppt und liefert den Anwendern nun auch Informationen darüber, wann ein Passwort das letzte Mal verwendet und aufgerufen wurde. Der Passwort-Manager lässt sich wie gewohnt über die Einstellungen im Reiter “Sicherheit” und dort nach einem Klick auf “Gespeicherte Passwörter” aufrufen.

Firefox 32 mit Malware-Schutz für Downloads

Firefox 32 überprüft Downloads automatisch auf Malware und zwar über die Google Application Reputation Database. Bei einem Fund schlägt Firefox sofort Alarm und verweigert das Aufrufen der betreffenden Datei. Dieser Malware-Schutz kann nur manuell in den Einstellungen abgeschaltet werden. Die entsprechenden zwei neuen Einträge finden sich im Reiter “Sicherheit” und tragen die Bezeichnungen: “Webseite blockieren, wenn sie als attackierend gemeldet wurde” und “Website blockieren, wenn sie als Betrugsversuch gemeldet wurde”. Die entsprechenden Häkchen sollten nur in extremen Ausnahmefällen entfernt werden und anschließend sofort wieder gesetzt werden. Ansonsten sind Sie beim Surfen mit dem Firefox nicht über dessen Safebrowsing-Funktion geschützt.

Firefox 32 mit Public Key Pinning

In Firefox 32 ist auch die Unterstützung für die Sicherheitsfunktion Public Key Pinning aktiviert. Diese Funktion überprüft beim Aufruf einer Website mit Sicherheitszertifikat, ob dieses von einem vertrauenswürdigen Herausgeber stammt. Die Betreiber der Seiten können über Public Key Pinning auch Zertifizierungsstellen festlegen, von denen sie die Zertifikate erhalten. Sollte beim Aufruf der Website das Zertifikat von einer anderen Zertifizierungsstelle stammen, dann wird der Aufruf der Website unterbunden. Auf diese Weise können Man-in-the-Middle-Attacken unterbunden werden.

Firefox 32: Neues Kontextmenü, Suchleiste und verbesserter Müll-Sammler

Hinzu kommen bei Firefox 32 eine Reihe weiterer kleinerer Verbesserungen. Das Kontextmenü erscheint nun in einer neuen Form. An oberster Stelle werden hier nur die Pfeile für Vor und Zurück angezeigt. Ebenso ein Icon zum Aktualisieren der Website und zum Ablegen in den Favoriten. Auf diese Weise lassen sich nun mit der Maus und über das Kontextmenü neue Websites besonders schnell in die Favoriten aufnehmen. Schneller ist nur das Tastatur-Kürzel Strg + D.

Auch von der Integration des generationellen Müllsammlers ist in den Release-Notes die Rede, der das schnellere Ausführen von Javascript-Code ermöglichen soll. Bei der Suchfunktion innerhalb der Seite (Strg + F) werden nach Eingabe eines Suchbegriffs nun auch die Anzahl der gefundenen Treffer angezeigt. Eine Funktion, die Google Chrome bereits seit langer Zeit bietet und die äußerst praktisch ist.

 

zur Webseite:

http://www.pcwelt.de/


 
 
 

Gestohlene Zugangsdaten

Der US-Domainverwalter Namecheap vermerkt seit einigen Tagen deutlich erhöhte Login-Versuche. Die dabei genutzten Kontodaten sollen aus der Sammlung russischer Hacker stammen.

Seit einigen Tagen hat das Intrusion Detection System (IDS) des US-Domainverwalters Namecheap eine deutlich gestiegene Anzahl an Login-Versuchen registriert. Interne Untersuchungen hätten ergeben, dass die dabei verwendeten Login-Daten aus der Datenbank russischer Hacker stammen. Vor wenigen Tagen hatte das IT-Sicherheitsunternehmen Hold Security gemeldet, im Besitz von über einer Milliarde Zugangsdaten zu sein, die es von russischen Hackern erbeutet haben will.

Offenbar probieren Datendiebe die gestohlenen Zugangsdaten massenweise aus. Laut Namecheap hätten die Hacker dafür eine gefälschte Login-Seite erstellt, in der sie die Daten eingeben, um sich Zugang zu den Konten der Namecheap-Benutzer zu verschaffen. Der größte Teil der Zugangsversuche sei gescheitert, da die Passwörter oder die Kundendaten nicht mehr gültig seien, schreibt Namecheap in einem Blogeintrag.

Betroffene werden informiert

Dennoch habe das Unternehmen einige erfolgreiche Einlog-Versuche registriert. Die betroffenen Konten seien umgehend gesichert und deren Besitzer informiert worden, schreibt Namecheap. Die Kunden werden gebeten, ihre Identitäten zu verifizieren und erhalten von Namecheap daraufhin ein neues starkes Passwort. Ihnen wird außerdem geraten, die Zwei-Authentifizierung zu aktivieren, die Namecheap wie viele andere Unternehmen anbietet.

Außerdem werden betroffene Kunden darauf hingewiesen, dass die verwendeten Zugangsdaten nicht bei Namecheap gestohlen wurden. Einen erfolgreichen Einbruch habe es dort bislang nicht gegeben. Das weise darauf hin, dass die Daten auch bei anderen Webseiten verwendet werden. Die Kunden sollten auch dort ihre Zugangsdaten ändern.

IP-Adressen gesperrt

Um sich gegen die zunehmenden Login-Versuche zu wehren, liest Namecheap die IP-Adressen aus, von denen die Einwahlversuche stammen. Sie werden von den Servern des Unternehmens blockiert. Außerdem habe Namespace die Strafverfolgungsbehörden informiert.

Ob die bei Namecheap verwendeten Zugangsdaten tatsächlich aus der Datenbank stammen, die Hold Security aus Daten aus diversen Foren und anderen Quellen gesammelt hat, ist aber unklar. Hold Security war in die Kritik geraten, weil es besorgten Kunden nur einen kostenpflichtigen Dienst anbietet, um herauszufinden, ob ihre Daten zu den gestohlenen gehören.

 

Link zum Artikel:

www.golem.de/news


 
 
 

Hamburg (ots) – Der deutsche Onlinespieleanbieter InnoGames (www.innogames.com/de) hat soeben den ersten deutschen Server bei dem mittelalterlichen Strategiespiel Tribal Wars 2 eröffnet. Der Nachfolger von Die Stämme – mit mehr als 50 Millionen registrierten Spielern eines der erfolgreichsten Browsergames aller Zeiten – ist somit ab sofort neben Deutsch auch auf Englisch in einer offenen Beta spielbar. Weitere 17 Sprachen sollen in den kommenden Wochen folgen. Das Interesse an Tribal Wars 2 ist schon im Vorfeld riesengroß gewesen: Mehr als 300.000 Spieler haben sich bereits für die Beta vorregistriert.

Zuletzt hat InnoGames mit einer kleineren Nutzergruppe das Spiel in einer geschlossenen Beta getestet.

“Die Closed Beta hat uns sehr wertvolles Feedback für die weitere Entwicklung des Spiels geliefert”, erklärt Tribal Wars 2 Product Manager Nino Protic. “Jetzt ist es an der Zeit einer noch größeren Anzahl an Spielern die Gelegenheit zu geben, das Spiel zu testen, damit wir ihm den letzten Schliff für den Launch geben können.

Bei Tribal Wars 2 starten die Spieler als Anführer eines kleinen mittelalterlichen Dorfes. Ihre Aufgabe ist es, dieses zu einem mächtigen Imperium auszubauen. Dabei müssen sie sich in einer umkämpften Welt gegen eine Vielzahl von Feinden behaupten und mächtige Bündnisse abschließen. Das MMO stellt strategische Real-Time Schlachten in den Mittelpunkt des Geschehens. Dabei ist besonders das Team-Play in den einzelnen Stämmen ein wichtiger Erfolgsfaktor für die Spieler. Gegenüber seinem Vorgänger Die Stämme bietet Tribal Wars 2 nicht nur stark verbesserte Grafiken, sondern auch eine Vielzahl an neuen Features, 26 verschiedene Technologien, 13 Einheiten und 17 Gebäude.

Tribal Wars 2 ist als Cross-Plattform-Spiel für Browser und mobile Geräte entwickelt worden. Die Spieler können somit für Web, Android und iOS immer denselben Account verwenden – es erwartet sie stets dieselbe Spielwelt, dieselben Gegner und dieselben Verbündeten. Die Betaphase ist nur für den Browser verfügbar. Die mobilen Apps will InnoGames noch in diesem Jahr veröffentlichen.

Der Vorgänger Die Stämme wurde von den InnoGames-Gründern Hendrik Klindworth, Eike Klindworth sowie Michael Zillmer 2003 als Hobbyprojekt entwickelt.

Mit 130 Millionen registrierten Mitspielern gehört InnoGames zu den weltweit führenden Entwicklern und Publishern von Onlinespielen. Zu den erfolgreichsten Spielen zählen Die Stämme, Grepolis und Forge of Empires.

 

 

Website:

http://www.presseportal.de/pm/79624/2821432/reisst-die-mauern-ein-tribal-wars-2-startet-ersten-deutschen-server-nachfolger-des-legendaeren


 
 
 

Neue größere iPhones, ein Handy-Bezahlsystem, die seit langem erwartete Computeruhr – wenn die Gerüchte stimmen, steht Apple vor einem großen Sprung. Für Konzernchef Tim Cook schlägt mit der Präsentation am nächsten Dienstag die Stunde der Wahrheit: Es werden die ersten Geräte gezeigt, die komplett in seiner Zeit an der Apple-Spitze entwickelt wurden.

In den Fußstapfen von Steve Jobs

Vor allem an der Computeruhr würde gemessen, ob Cook die Fußstapfen seines legendären Vorgängers Steve Jobs ausfüllen konnte. Es wäre der erste Vorstoß von Apple in eine neue Produktkategorie seit dem iPad-Tablet vor über vier Jahren.

Wie vor jedem Apple-Event überschlagen sich die Gerüchte. Die beiden iPhones sollen mit Display-Diagonalen von 4,7 und 5,5 Zoll erstmals so groß wie die meisten Smartphones mit dem Google-System Android werden. Mit dem Bezahldienst solle man in Läden einfach sein iPhone an das Kassengerät halten können und den Betrag über dessen Fingerabdruck-Sensor statt per PIN oder Unterschrift bestätigen. Die Uhr kommt wohl in zwei Größen und soll neben Gesundheits-Sensoren ebenfalls den NFC-Funk unterstützen, auf dem der iPhone-Bezahldienst aufbaut. Nach Informationen des gut verdrahteten Blogs “9to5Mac” lässt Apple andere Online-Dienste bereits Apps für die Uhr entwickeln, darunter sei Facebook.

Die Messlatte für das kommende Event liegt also hoch

Apple betreibt für das Event noch mehr Aufwand als bei den bisherigen Produkt-Vorstellungen und setzt dabei auch auf Symbole. Tim Cook und sein Team werden nämlich im Flint Theater in Cupertino auftreten, in dem Firmengründer Jobs vor 30 Jahren den ersten Mac-Computer vorstellte. Damals wurde erstmals ein modernes Benutzungskonzept für PCs mit Maus und grafischer Oberfläche für den Massenmarkt eingeführt, das heute noch Gültigkeit hat. Die Messlatte für das kommende Event liegt also hoch. Neben dem Flint Theater wurde ein riesiges weißes Gebäude ohne Fenster aufgebaut. Was drin ist, weiß man nicht. Auf der Website läuft ein Countdown zur Live-Übertragung.

Apple will sich in der öffentlichen Meinung die Rolle des Innovators zurückholen. Über Geld muss sich der Konzern angesichts der steten Flut von Milliardengewinnen und über 160 Mrd. Dollar (123,6 Mrd. Euro) auf der hohen Kante zwar keine Gedanken machen. Aber seine Rivalen Google und Samsung werden von manchen Beobachtern und vielen Kunden als die innovativeren Unternehmen wahrgenommen.

Datenbrillen, selbstfahrenden Autos, Kurier-Drohnen

Google experimentiert mit Datenbrillen, selbstfahrenden Autos, Kurier-Drohnen. Und sein Android dominierte den Smartphone-Markt zuletzt mit einem Rekordanteil von fast 85 Prozent. Samsung ist zum größten Smartphone-Hersteller der Welt zwar vor allem mit seinen günstigen Modellen geworden, aber seine Spitzenmodelle wie das Galaxy S5 spielen in der iPhone-Klasse. Zudem beeilte sich Samsung, schon ein Jahr vor Apple mit seiner ersten Computeruhr vorzupreschen. Die ersten Geräte hatten noch Macken und wurden am Markt recht kühl aufgenommen. Bei den neuen Modellen wurden die Rezensionen besser, wie bei der auf der IFA gezeigten Gear S mit Mobilfunk-Anbindung.

Und auch deshalb sind die Erwartungen in eine Apple-Uhr so hoch. In den vergangenen Wochen und Monaten kam zwar eine Flut von Modellen diverser Hersteller auf den Markt. Aber die weitaus meisten hinterlassen das Gefühl, das Konzept ist noch deutlich verbesserungsfähig bei Laufzeit, Bedienung und Design. Kann Apple nach iPhone und iPad-Tablet auch in dieser Kategorie einen Maßstab setzen?

“Die Schweiz hat ein Problem”

Die Uhr gehört zu Apples bisher ambitioniertesten Projekten. “Die Schweiz hat ein Problem”, zitiert die “New York Times” Apples Designchef Jony Ive unter Berufung auf Insider. Allerdings wird auch erwartet, dass eine eventuelle “iWatch” voraussichtlich erst im nächsten Jahr auf den Markt kommt, auch wenn sie schon jetzt vorgestellt werden sollte. Dafür spricht auch, dass auf keiner Gerüchte-Website bisher ein glaubwürdig aussehendes Foto der Apple-Uhr erschienen ist – während längst Bilder aus den Fabriken in Asien ihren Weg in die Öffentlichkeit gefunden haben, die mit hoher Wahrscheinlichkeit die neue iPhone-Generation zeigen.

Tim Cook führt Apple anders als Jobs. Er überlässt seinen Managern mehr Verantwortung und geht schwierige Themen wie den Umweltschutz oder die Arbeitsbedingungen in China. Als zuletzt aus Apple-Profilen gestohlene Nacktfotos von Prominenten im Internet auftauchten, versprach Cook in einem Interview bessere Sicherheitsvorkehrungen. Zugleich betonte er aber auch, dass Apples Systeme technisch gesehen nicht aufgeknackt worden seien. Vor dem Start eines Bezahldienstes kann sich Apple keine Zweifel der Verbraucher leisten.

Die Börse bedachte Apple diesmal mit Vorschuss-Lorbeeren. Die Aktie markierte ein Rekordhoch mit 103,74 Dollar, auch wenn der Kurs danach etwas nachgab. Apple bestellte laut Medienberichten als Startauflage 80 Millionen iPhones – mehr als bei jeder Generation zuvor. (APA, 8.9. 2014)

 

Ursprünglich veröffentlicht:

derstandard.at/2000005296531


 
 
 

Microsoft bringt sein neues Tablet Surface Pro 3 am Donnerstag in Deutschland an den Start. Das Tablet soll ein komplettes Notebook ersetzen und greift das Macbook Air von Apple an. Dafür soll das aktuell Betriebssystem Windows 8 voll ausgenutzt werden.

Anders als seine Vorgänger ist das Gerät mit seiner Ausstattung als ein vollständiger Notebook-Ersatz gedacht. Der Nutzer solle nun alles mit einem Gerät machen können, sei es privat surfen und Filme anschauen oder es beruflich für den produktiven Einsatz nutzen, sagte Microsoft-Manager Oliver Gürtler. Bereits vor der offiziellen Markteinführung hatte das Surface 3 zahlreiche positive Rezensionen erhalten.

Optimal auf Windows ausgelegt

Mit einer Bildschirmdiagonale von 12 Zoll ist es größer als die ersten Modelle, mit rund 800 Gramm aber auch leichter sowie merklich dünner. Es gehöre zu den dünnsten Geräten in der Notebook-Klasse, die mit Intels Core-Prozessor arbeiten, sagte Gürtler. Die Bildschirmauflösung sei ähnlich hoch wie bei Apples Retina-Displays, die einzelnen Pixel ließen sich nicht mehr erkennen. Laut Gürtler will Microsoft mit dem High-End-Gerät vor allem Apples Notebook Macbook Air Konkurrenz machen. Es gehe auch darum, die aktuellen Versionen von Windows als beste Wahl zu bewerben, da es eine breite Auswahl an verschiedensten Geräten für das System gebe.

Das Surface Pro 3 sieht Microsoft als Referenzdesign für Geräte an, die optimal auf sein Betriebssystem Windows ausgelegt sind. Mit dem ersten Surface-Modell hatte der Softwarekonzern im Jahr 2012 noch für manchen Unmut unter seinen Hardware-Partnern gesorgt, da er ihnen direkte Konkurrenz machte.

Halb Tablet, halb Laptop

Nach langer Durststrecke im Tablet-Markt hatte sich Microsoft damals entschieden, ein eigenes Gerät zu entwickeln, das die Vorzüge wie etwa die Touch-Unterstützung von Windows 8 optimal nutzen sollte. Ziel war es, im boomenden Tablet-Markt durchzustarten, der von Apple und Google klar dominiert wurde. Microsoft war es nicht gelungen, seine Marktposition bei Personal Computern auf die mobilen Geräte zu übertragen.

Mehr als zwei Jahre soll das Surface Pro 3 nun aber auch eine neue Gerätekategorie etablieren. Es sei für die Klasse der sogenannten Two-in-One-Geräte positioniert, sagte Gürtler. Mit optionaler Tastatur, die auch als Schutzklappe dient und sich mit einem verbesserten Magnetstreifen an den Bildschirm anbringen lässt, wird das Tablet zum Notebook. Mindestens neun Stunden Akku-Laufzeit sollen es für den beruflichen Alltag tauglich machen.

OneNote-Integration

Zu den Highlights gehöre neben den jetzt stufenlosen Neigungswinkeln auch die Integration von OneNote mit einem elektronischen Stift, sagte Gürtler. Mit einem Klick auf den Knopf an der Kopfseite öffnet sich automatisch die Notiz-Software auf dem Surface und ist ohne Start- und Wartezeit für handschriftliche Notizen verfügbar. „56 Prozent der Berufstätigen bevorzugen heute noch immer Papier und Stift“, sagte Gürtler.

Mit einem Preis zwischen rund 1000 und 2000 Euro orientiert sich das Surface deutlich am Premium-Bereich. Bei der dritten Generation seiner Tablets hatte sich Microsoft dagegen entschieden, ein kleineres und günstigeres Modell herauszubringen. Diese Gerätekategorie wird derzeit von Modellen mit Googles Android-System überschwemmt, Apple ist mit seinem iPad mini stark.

Kommt der PC zurück?

Der sich derzeit wieder erholende PC-Markt könnte Microsoft dabei in die Hände spielen. Branchenbeobachter sprechen bereits von einer Renaissance des PC-Geschäfts. Wie sich das Surface Pro 3 seit dem Start in den USA geschlagen hat, teilte Microsoft bislang nicht mit. Man sei aber mit den Vorbestellungen in Deutschland sehr zufrieden, sagte Gürtler.

 

Artikel-Quelle:

http://www.focus.de/


 
 
 

Intel Core i7-5960X im Test

Intels neues Topmodell für Desktop-PCs, kleine Workstations und Übertakter startet früher als erwartet – und ist mit alter Software manchmal langsamer als der Vorgänger. Für Profis kann sich der Prozessor Core i7-5960X dennoch lohnen.

Diesmal gibt es nicht wenige, sondern gar keine Aufrüstmöglichkeiten: Wer Intels neue Serie Core-i7-5900/5800 nutzen will, braucht eine neue CPU, ein neues Mainboard und neuen Speicher. Das schreckt zunächst ab, ist aber logisch. Der hier getestete Core i7-5960X basiert wie alle Extreme-CPUs der vergangenen Jahre auf Server-Technik, genauer dem ebenfalls bald erwarteten Haswell-EP, der als Xeon 2600 v3 erscheinen wird.

Diese neuen Xeons bringen eine Generalüberholung der gesamten Infrastruktur mit sich, sodass sich auch beim Haswell-E 5960X zahlreiche Änderungen ergeben. Da die Produkte bei Servern und Workstations mehrere Jahre aktuell bleiben, dürfte Intel auch die neue Plattform entsprechend lange pflegen.

Das zeigt sich schon am neuen Sockel LGA 2011-v3, der nur mechanisch gleich bleibt. Selbst alte Kühler, die vor drei Jahren für Sandy Bridge-E (Core-i7-3900) angeschafft wurden, passen also noch. Dennoch sind neue Mainboards nötig, denn die 2011 Kontakte sind anders beschaltet. Das ist dem DDR4-Speicher geschuldet, für den Haswell-E wie gehabt vier Speicherkanäle mitbringt.

DDR4 ist eine direkte Anforderung von Server- und Supercomputerherstellern, die sich laut Intel vor allem mehr Bandbreite wünschen, selbst wenn dafür die Latenzen steigen. Da bei solchen Anwendungen vor allem große Programme und Daten bearbeitet werden, ist die effektive Bandbreite des Hauptspeichers wichtiger als bei kleinen Desktop-Anwendungen. Andere Techniken wie höchstens 40 PCI-Express-Lanes in Version 3.0 und weitere Schnittstellen blieben weitgehend unverändert.

Wichtigste Neuerung sind die acht Kerne, die per HyperThreading 16 Threads parallel verarbeiten können. Nach Intels Lesart ist der 5960X die erste Achtkern-CPU des Unternehmens für Desktop-PCs. Das stimmt nur soweit, wie man nur Core-CPUs und kleinere Modelle als für den Desktop geeignet ansehen mag. Findige Bastler setzen aber schon seit Jahren auch Xeons in günstigen Desktop-Boards ein. Dabei bezahlt man aber stets meist nicht genutzte Funktionen wie die Eignung für ECC-Speicher und die Fernwartung vPro mit – beides unterstützt auch der 5960X nicht. Auch von AMD gibt es seit den ersten Bulldozer-FX-CPUs acht Kerne, wobei aber nur acht Integer-Einheiten vorhanden sind und halb so viele FPU- und SIMD-Rechenwerke.

Der entscheidende Unterschied zu den Xeons sind bei den neuen Core-CPUs die offenen Multiplikatoren sowie weitere Übertaktungsfunktionen. Da sich die Strukturbreite von 22 Nanometern gegenüber Ivy Bridge-E nicht geändert hat, bedingen die beiden zusätzlichen Kerne und der von 15 auf 20 MByte vergrößerte L3-Cache insgesamt bis zu 2,6 Milliarden Transistoren und eine höhere Leistungsaufnahme. Statt 130 Watt TDP sind nun 140 Watt abzuführen, was aber mit guten Luftkühlern noch möglich ist. Damit das klappt, mussten die Taktfrequenzen gesenkt werden.

Mehr Kerne, mehr Cache, weniger Takt

Während der erst vor einem Jahr erschienene Core i7-4960X (Ivy Bridge-E) mit seinen sechs Kernen noch einen Basis- und Turbotakt von 3,6 und 4,0 GHz erreichte, kommt der Core i7-5960X nur auf 3,0 und 3,5 GHz. Mehr Leistung kann er also nur dann erreichen, wenn seine um ein Drittel höhere Zahl an Kernen von der Software auch genutzt wird. Dabei gilt es aber noch die kürzlich von Golem.de ausführlich beschriebenen Eigenheiten der Turbos zu beachten.

Der Basistakt ist bei Intel-CPUs nur die Frequenz, welche die Kerne unter den ungünstigsten Bedingungen mindestens erreichen. In der Praxis liegt auch bei voll in Threads aufgeteilten Programmen wie Cinema4D bei stundenlanger Last der Takt höher – und zwar beim 5960X prozentual gesehen noch höher, als beim 4960X.

Intel gibt einen Turbo-Takt von 3,3 GHz bei Belastung aller Kerne für den 5960X an, den die CPU in unserem Test auch stets erreichte. Das liegt drei Multiplikatorstufen über dem Basistakt. Beim 4960X ist es nur eine, da diese CPU aber dann mit 3,7 GHz läuft, ist sie mit schlecht in Threads aufgeteilten oder gar Single-Thread-Programmen dennoch schneller als der Nachfolger. Wohl daher ist anders als früher befürchtet der 5960X auch nicht teurer als der 4960X, für beide Prozessoren gilt der Großhandelspreis von 999 US-Dollar zuzüglich Steuern.

Da es jetzt ein Drittel mehr Kerne gibt, wurde auch der L3-Cache um ein Drittel aufgestockt, und zwar von 15 auf 20 MByte. Im Verhältnis wurde der schnelle Zwischenspeicher bei den beiden Sechskernmodellen 5930K und 5820K mit 15 MByte sogar überproportional größer, für den Hexacore 4930K gab es nur 12 MByte. Einen Quad-Core wie den 4820K bietet Intel mit der Serie Haswell-E nicht mehr an, seinen Platz übernimmt der 4790K.

Wer sich mit dem 5960X besonders große Systeme mit mehr als zwei Grafikkarten bauen will, stößt an eine schon von seinem Vorgänger bekannte Grenze: Es sind nur 40 PCIe-Lanes in Version 3.0 vorhanden. Das reicht für zwei Grafikkarten mit x16-Anbindung, eine dritte bekommt nur noch 8 Lanes. Bei vier Karten müssen sich drei mit x8-Anbindung begnügen. Bei Spielen reduziert das die Leistung kaum, bei Rechenanwendungen für GPUs kann das aber zum Flaschenhals werden.

Dazu kommt noch, dass mit M.2-SSDs nun eine weitere Komponente zum Nachrüsten existiert, die im Idealfall mit vier PCIe-Lanes angebunden werden sollte. Das hat auch Asus mit dem zum Test verwendeten Highend-Mainboard Rampage V Extreme recht kompromisslos umgesetzt: Wenn sich im vierten PCIe-Slot eine Karte befindet, wird die M.2-Schnittstelle abgeschaltet. Dank Dual-GPU-Karten lassen sich aber dennoch vier Grafikprozessoren und eine M.2-SSD verwenden, alternativ gibt es an diesem Mainboard auch zwei Sata-Express-Schnittstellen, wenn vier Grafikkarten verwendet werden sollen.

Die Zahl der PCIe-Lanes ließ Intel auch bei den beiden kleineren Haswell-E unverändert, der 5930K besitzt 40 Leitungen und der 5820K nur 28. Mit dem kleinsten der neuen Prozessoren lassen sich also nicht einmal mehr zwei Grafikkarten mit voller Bandbreite ansteuern, das war beim 4820K mit 40 Lanes noch anders. Dennoch reichen die PCI-Express-Anbindungen für mehr Erweiterungen als bei den Quad-Cores der Serie Core-i-4000, denn dort sind bei allen Prozessoren höchstens 16 Lanes vorhanden. Die PCIe-Lanes die direkt im Root-Complex des Prozessors sitzen, stehen exklusiv für Steckkarten zur Verfügung, alle anderen Schnittstellen des X99-Chipsatzes inklusive 8 PCIe-Lanes in Version 2.0 stellt dieser selbst zur Verfügung.

Sparsamer X99-Chipsatz und DDR4-Speicher

Traditionell gelten die X-Chipsätze für Intels Highend-Plattformen als Stromverschwender – das hat sich mit dem X99 endlich geändert. Zwar gibt Intel gegenüber dem Vorgänger X79 – ein X89 erschien nie – nur eine Senkung der TDP von 7,8 auf 7 Watt an. Die Strukturbreite wurde aber von 65 auf 32 Nanometer verkleinert, sodass der TDP-Wert wohl nur symbolisch ist, damit die Mainboardhersteller nicht viel zu kleine Kühler verbauen. Da kaum noch Zusatzchips nötig sind, kann die gesamte Plattform viel weniger Energie als bei Sandy Bridge-E und Ivy Bridge-E aufnehmen.

So gibt es nun endlich auch in der Extreme-Serie native Unterstützung für USB 3.0, und zwar gleich für sechs Ports. Wenn mehr Anschlüsse wie beim Asus Rampage V vorhanden sind, arbeiten weiterhin andere USB-Controller auf dem Mainboard – wer sie nicht braucht, kann sie im UEFI abschalten. Zusätzlich gibt es durch den Chipsatz auch bis zu acht USB-2.0-Ports.

Mit zehn Sata-Anschlüssen mit 6 GBit/s stellt der X99 auch so viele Schnittstellen für Massenspeicher zur Verfügung, dass sich damit größere Desktop-RAIDs realisieren lassen. Für Selbstbau-Server sind aber zusätzliche Ethernet-Schnittstellen nötig, nur einen Gigabit-Port kann der Chipsatz direkt anbinden. M.2-Slots sieht Intel nicht direkt vor, sie können aber über die PCIe-Lanes des Prozessors zur Verfügung gestellt werden.

Sparsamkeit ist auch beim neuen Speichertyp DDR4 angesagt. Statt minimal 1,35 Volt bei DDR3 sind DDR4-DIMMs von Anfang an auf 1,2 Volt ausgelegt. Die Speicherchips mit ihren immer kleineren Strukturen von derzeit unter 30 Nanometern machen das eigentlich schon länger mit, nur waren die Adressierungsverfahren und die Busprotokolle für das inzwischen 15 Jahre alte Prinzip von DDR-Speichern kaum geeignet.

Folglich arbeitete das Normierungsgremium JEDEC schon seit über drei Jahren daran, die Organisation der DRAMs und der physikalischen Busse möglichst gleich zu lassen und die Übertragung dennoch schneller zu machen. Alles andere hätte völlige Neukonstruktionen von Speichercontrollern und Mainboards bedeutet. Geeinigt hat man sich schließlich auf neue Protokolle, die Gruppierung in internen Bänken – nicht zu verwechseln mit den üblichen Banks – und mehr parallele Zugriffe durch ein erweitertes Prefetching. Damit die Signalqualität erhalten bleibt, kann der Bus dynamisch invertiert werden.

All das geht mit heutigen Speicherchips zu Lasten der Latenz. Die günstigsten der im Vergleich zu DDR3 ohnehin noch teuren DDR4-Module haben ein CAS-Latency von 17, ein Wert, den auch billigste DDR3-Speicher leicht unterbieten. Ausgeglichen wird das durch einen höheren Takt. Wo effektiv 2.133 MHz bei DDR3 schon zu den besseren Übertakter-Modulen zählen, ist das bei DDR4 die Einstiegsfrequenz – zumindest bei den bisher verfügbaren Modulen.

Allerdings ist DDR4-2133 auch der höchste Wert, den die JEDEC spezifiziert hat, es gibt aber auch schon Module mit 2.800 MHz, und 3.000 MHz sind angekündigt, aber noch kaum verfügbar. Damit die Mainboards die richtigen Timings einstellen, hat Intel sein Extreme Memory Profile (XMP) in Version 2.0 neu aufgelegt – ein Sprung von der bisherigen Version 1.3, die für DDR3 weiterhin gültig ist.

Für den bisherigen Speicher gibt es zwar schon länger auch Module mit effektiv 3.000 MHz und mehr, sodass der Vorteil von DDR4 sich erst langfristig zeigen muss. Er liegt, weil durch Server-Technik getrieben, vor allem in mehr Speicher bei nicht überproportional steigender Leistungsaufnahme. Das zeigte sich schon auf der Computex 2014, als Mainboardhersteller 128 GByte für Haswell-E empfahlen – Intel sieht nur 64 GByte vor.

Äußerlich unterscheiden sich die die neuen Module durch 288 statt 240 Kontakte, dabei sind sie an der Kontaktseite unverändert 134 Millimeter breit. Damit die höhere Dichte der Anschlüsse sicher in den Slot findet, stehen die mittleren Kontakte bei DDR4-Modulen etwas hervor, was mehr Aufwand bei der Fertigung der Platinen bedeutet. Mechanisch passen durch eine verschobene Einkerbung DDR3-Module nicht in DDR4-Slots und umgekehrt. Irrtümliches Einstecken ins falsche Board ist so ausgeschlossen.

Testsysteme und Verfahren

Wir testen für die Benchmarks ein Vorserienexemplar (ES) des Core i7-5960X auf dem Asus-Mainboard Rampage V Extreme aus der ROG-Serie. Es bietet nicht nur den Intel-Sockel 2011-v3, sondern eine Sonderversion, die zum Übertakten mehr Pins der CPU ansteuert, wie unsere Kollegen von PC Games Hardware herausgefunden haben. In unserem Technologievergleich der Plattformen von 2013 und 2014 laufen die Systeme aber innerhalb ihrer Werkseinstellungen.

Da Intel zum ersten Mal seit über drei Jahren die Zahl der Kerne für Desktop-PCs wieder erhöht hat, aber den Takt senkte, konzentrieren wir uns auf den Vergleich von 4960X, 5960X und dem 4770K als erstem Haswell-Quadcore.

Die Messungen der beiden Extreme-CPUs erfolgen sowohl mit dem für die anderen Prozessoren verwendeten Netzteil Dark Power Pro von Be Quiet mit 850 Watt Nennleistung als auch mit dem recht sparsamen und neueren Straight Power desselben Herstellers mit 400 Watt und 80+-Gold-Zertifizierung. Dabei wurde die für die grafiklastigen Tests verwendete Radeon HD 7870 durch eine Radeon HD 6450 ersetzt, die für den Windows-Desktop nur 7 Watt benötigt. Dafür gibt es eigene Diagramme, die nur die Leistungsaufnahme von Intels Extreme-Editions vergleichen. Als Treiber kommt der WHQL-zertifizierte Catalyst 14.4 zum Einsatz. Die Zusatzchips der Mainboards und andere Erweiterungen wie WLAN-Adapter oder LED-Beleuchtungen schalten wir ab.

Intels bisherige Sechskerner laufen auf dem MSI-Mainboard X79A-GD65 8D mit X79-Chipsatz, dort verwenden wir 16 GByte DDR3-2133-Speicher mit den Timings 11-12-12-31. Das ist für Vergleichbarkeit wichtig, weil effektiv 2.133 MHz bisher die kleinste Taktfrequenz für verfügbare DDR4-Module sind. Dort betragen die Timings 15-15-15-35. Die gleichen DDR3-Speicher wie für die Hexacores stecken wir auch in das Z87-Deluxe von Asus, in dem der 4770K vermessen wird.

Alle Anwendungen und Daten kommen von einer Intel-SSD der Serie 520 mit 240 GByte Kapazität, von denen wir 24 GByte für besseres Wear-Levelling unpartitioniert lassen. Die Messungen finden unter Windows 7 Ultimate in der 64-Bit-Version statt, da wir wissen, dass dieses Betriebssystem auch bei den Lesern von Golem.de noch die am weitesten verbreitete Windows-Version und für Benchmarks zuverlässiger ist. Wo möglich, verwenden wir die 64-Bit-Versionen der Anwendungen.

Synthetische Benchmarks zeigen Single-Thread-Schwäche

Acht gegen sechs Kerne lautet das Duell beim Vergleich von 4960X und 5960X. Beim Vergleich der beiden Sechskerner 3960X und 4960X ergaben sich durch die Architekturverbesserungen und den gering gesteigerten Takt 7 bis 10 Prozent mehr Rechenleistung. Intels Ziel ist es, mit jedem neuen CPU-Design, wozu auch Haswell zählt, rund 10 Prozent mehr zu erreichen. Beim 5960X ist dafür der Takt geringer als bei seinem Vorgänger – das kann sich bei Single-Thread-Anwendungen trotz der Architekturvorteile negativ auswirken. Werden jedoch alle Cores voll ausgelastet, sind in der Theorie rund 30 Prozent mehr Leistung zu erzielen.

Das zeigen auch Cinebench R11.5 und R15, die mit Takt und Kernzahl nahezu perfekt skalieren: Der 5960X ist fast ein Drittel schneller als der 4960X, alle anderen CPUs sind abgeschlagen. Bei beiden Programmen lässt sich auch nur ein Kern nutzen, dann ist der 4960X durch seinen Taktvorteil gleichauf. Um die Leistung pro Takt zu bewerten haben wir beide CPUs auch mit einem festen Multiplikator von 30 auf 3,0 GHz eingestellt und Cinebench R15 neu vermessen. Durch zwei Kerne mehr gewinnt dann auch der 5960X.

Das ist auch bei Nutzung von nur einem Core der Fall, allerdings fällt das Ergebnis mit 108 gegenüber 110 Punkten zu Gunsten des 5960X äußerst knapp aus. Immerhin kann der Haswell-E hier seinen Architekturvorteil und den größeren L3-Cache offenbar noch ausspielen. Zudem bleibt Cinebench lange Zeit auf dem selben Kern, was bei älteren Anwendungen nicht der Fall ist.

Ein Extrembeispiel für ein Programm, das ständig die Kerne wechselt – was die CPU intern unter anderem durch Cache-Flushes durcheinanderbringt – ist SuperPi Mod XS 1.5. Wenn wir damit die Kreiszahl auf 4 Millionen Nachkommastallen berechnen, braucht der 5960X über zwei Sekunden länger als der 4960X. Der höhere Turbotakt des Ivy Bridge-E bringt hier den Vorteil, SuperPi ist so klein, dass der größere L3-Cache nicht ins Gewicht fällt. Wenn also noch sehr alte Single-Thread-Anwendungen eingesetzt werden müssen, sollte man durch eigene Tests prüfen, ob sich die neue CPU lohnt. Dann kann auch ein viel billigerer Quad-Core wie der 4790K mit 4,4 GHz bei Belastung eines Kerns schneller sein.

Bei Multithreading-Anwendungen schlägt die um ein Drittel erhöhte Kernzahl aber in der Regel zu, wenn sich die Programme nicht durch die für Desktops ungewohnt hohe Zahl von 16 Threads verwirren lassen.

Medienbearbeitung und Kompression

Selbst wenn ein Programm die acht Kerne und 16 Threads nutzt, kann es auf dem 5960X nicht automatisch schneller sein als beim 4960X. Das ist beispielsweise bei Lightroom der Fall, womit wir 257 Raw-Dateien in LZW-komprimierte TIFFs konvertieren. Dabei lastet das Adobe-Programm die Kerne ungleichmäßig aus, sodass der 5960X leicht langsamer als der 4960X ist. Das heißt nicht, dass die neue CPU sich nicht für Bildbearbeitung eignet. In nicht bewerteten Vergleichen mit Photoshop-Filtern wie Nik Dfine und Color Efex zeigte sich eine gleichmäßige Auslastung.

Ebenfalls langsamer kann der Haswell-E sein, wenn mit Winrar in der 64-Bit-Version die gleichen Raw-Dateien mit normaler Kompression in ein Rar-Archiv verpackt werden sollen. Wenn die gleiche SSD verwendet wird, ist der 4960X durch seinen höheren Turbo-Takt etwas schneller fertig. Wenn solche Aufgaben häufig anstehen, reicht aber schon die Erhöhung um zwei Multiplikatorstufen um den Nachteil auszugleichen. Das ist zwar eine moderate Übertaktung, viele professionelle Anwender schrecken aber vor solchen Eingriffen für ein Produktivsystem noch immer zurück.

Wir haben außerhalb der bewerteten Tests den Rechner sowohl bei der Konvertierung wie auch der Kompression praxisnah genutzt. Dabei fiel auf, dass der Start großer Programme wie Cinema4D oder der Aufruf komplexer Webseiten spürbar schneller abliefen. Genau messbar sind solche Vorteile von einigen Sekunden kaum, es geht eher um einen psychologischen Vorteil: Auch Aufgaben, die ältere Systeme voll auslasteten und unbenutzbar machen, sind nun kein Hindernis mehr, das von anderen Arbeiten abhält.

Wenn nicht gerade alle Kerne unter voller Last stehen, wie das etwa beim Rendering mit Cinema4D der Fall ist, reagiert ein Rechner mit dem Core i7-5960X fixer auf Eingaben und den Start anderer Anwendungen. Es sind stets vier Threads mehr verfügbar als beim 4960X, auf welche das Betriebssystem die Aufgaben verteilen kann.

Für Medienschaffende ist es aber unabdingbar, vor der Anschaffung einer Achtkern-CPU beim Hersteller der meistgenutzten Anwendungen nachzufragen, wie viele Threads von diesen tatsächlich genutzt werden. Da schon acht Threads durch Quad-Cores mit Hyperthreading seit Jahren üblich sind, sollten moderne Programme auch das doppelte nutzen können – denn Achtkerner sind durch die Xeons und AMDs FX-CPUs auch nicht brandneu, mit Intels neuem Haswell-E dürfte die Verbreitung noch etwas zunehmen.

Zahlreiche weitere Benchmarks des 5960X, vor allem mit Spielen, finden sich bei unseren Kollegen der PC Games Hardware, die auch das kleinere Modell 5820K vermessen haben. Den 5960X konnten sie auf bis zu 4,7 GHz übertakten, was aber eine Leistungsaufnahme für das Gesamtsystem von 271 Watt zur Folge hatte.

Rendertests mit über 27 Stunden

Wenn von Multicore-CPUs wie dem 5960X die Rede ist, fällt vielen Anwendern als Paradedisziplin der Videoschnitt ein – das ist aber nicht unbedingt die Programmkategorie, bei denen die Vielkerner ihren Vorteil voll ausspielen können. Noch besser ist 3D-Animation geeignet.

Um zu zeigen, wie sich mehr Kerne in der Praxis der Mediengestaltung auswirken, berechnen wir daher mit Cinema4D R15 ein echtes Projekt. Es wurde uns von dem freischaffenden Fotografen und Filmer Andreas Brauner zur Verfügung gestellt. Anders als beim Cinebench R15 werden damit die Einzelbilder eines 30-Sekunden-Films mit 25 fps berechnet. Dabei entstehen pro Sekunde aber nicht 25 Bilder, sondern 250.

Für die Weiterverarbeitung werden nämlich neben den Bildern der Objekte auch Beleuchtung und Effekte in einzelnen TIFF-Dateien gespeichert, die später in einem Compositing-Programm in Ebenen zusammengefügt werden. Dadurch muss etwa für eine Abdunklung einer einzelnen Szene nicht der gesamte Film neu gerendert werden. Der Rechenaufwand für die Bilder ist enorm: Auf einem Core i7-4770K braucht die Erstellung von 30 Sekunden Animation über 27,5 Stunden Renderzeit.

Da Cinema4D mehr Kerne stets nutzt, sinkt dieser Zeitaufwand mit dem 4960X und erst recht dem 5960X deutlich. Mit Ivy Bridge-E und sechs Cores sind nur noch 20 Stunden und 23 Minuten nötig, was den Arbeitsablauf bei der Produktion entscheidend beeinflussen kann: Das Rendering kann am Abend eines Arbeitstages gestartet werden und ist am Nachmittag des nächsten Tages fertig. Dann können noch Anpassungen vorgenommen werden, und wiederum einen Tag später liegt das hoffentlich korrekte Ergebnis vor. Mit 27,5 Stunden verschieben sich die Arbeiten, sofern nicht Nachtschichten eingelegt werden, immer um einen Tag mehr.

Mit dem 5960X ist der Film bereits nach 14 Stunden und 40 Minuten fertig, was noch mehr Spielraum für Überarbeitungen erlaubt, weil nicht einmal mehr einen Arbeitstag, inklusive der Nacht, gewartet werden muss. Wer das Rendering um 19 Uhr startet, kann am nächsten Morgen um 10 Uhr das Ergebnis überprüfen, und beispielsweise nach einer Konferenz mit Mitarbeitern schon mittags einen neuen Durchlauf starten.

Alle Plattformen, sowohl mit 4770K wie 4960X und 5960X liefen bei unseren Rendertests trotz 16 GByte Speicher mit je vier Modulen auch bei mehreren Durchläufen vollkommen stabil. Dass für tagelanges Rechnen also unbedingt ECC-Speicher nötig ist, scheint zumindest für Cinema4D nicht zuzutreffen.

Leistungsaufnahme mit deutlich höherer Effizienz

Allein an der TDP lässt sich der Energiebedarf moderner Prozessoren nicht beurteilen. Sie ist eine technische Angabe für PC-Hersteller, nicht das, was der Rechner ständig an Leistung aufnimmt. Beim 5960X zeigt sich das deutlich: Die TDP für die CPU allein ist mit 140 Watt angegeben, dennoch nimmt unsere Testplattform mit sparsamem Netzteil nur 146 Watt unter Last auf allen Kernen auf. Das gilt für ein sparsames 400-Watt-Netzteil. Soll für mehrere Grafikkarten ein 850-Watt-Modell genutzt werden, sind es unserem Fall 158 Watt.

Bei ruhendem Windows-Desktop ist die Leistungsaufnahme in einem effizienten PC auf 38 Watt zu drücken, mit weniger sparsamem Netzteil sind es noch 44 Watt. Alle Idle-Werte liegen deutlich unter denen des 4960X, unter Last benötigt der 5960X-PC aber im besten Fall 146 statt 136 Watt wie beim 4960X-System. Da dabei jedoch für rund 30 Prozent mehr Rechenleistung nur gut 7 Prozent mehr Energie aufgewendet werden müssen, ist der Haswell-E dennoch der deutlich effizientere Prozessor.

Nun vom 4960X umzusteigen, dürfte sich aber rein aus Gründen der Energieeinsparung kaum lohnen, selbst wenn um den 5960X herum eine Maschine gebaut werden soll, die stets unter Volllast steht. Bis die rund 1.500 Euro für CPU, Mainboard und RAM an Stromkosten eingepart sind, ist die Plattform längst veraltet.

Bei allen Betrachtungen der Leistungsaufnahme von Highend-CPUs ist neben dem Netzteil das Mainboard entscheidend. Unser verwendetes Rampage V von Asus ist auf Overclocking, nicht Effizienz getrimmt. Die große E-ATX-Platine bedingt allein schon längere Leitungen. Dass sich damit dennoch geringere Idle-Werte als beim 4960X ergeben, den wir auf einem recht sparsamen MSI-Mainboard gemessen haben, beeindruckt umso mehr. Auf beiden Boards haben wir alle Zusatzchips, Funkmodule und die LED-Beleuchtung für diese Messungen abgeschaltet. Mit all diesem Zubehör nimmt das Rampage V rund 10 Watt mehr auf.

Mit kleineren Mainboards und noch effizienterem Netzteil – unser Be Quiet ist nach 80 Plus Gold zertifiziert – sollten auch Haswell-E-Systeme zu machen sein, die an der 30-Watt-Grenze kratzen. Für eine komplett neue Plattform ist das eindrucksvoll, insbesondere die Hersteller von kleinen Workstations sollten diese Vorteile durch sorgfältige Konfiguration nutzen.

Fazit

Der Core i7-5960X markiert einen Umbruch. Intel setzt konsequent auf mehr Kerne, auch wenn der Takt dafür etwas geringer ausfällt. Ohne Übertaktung ist die Achtkern-Plattform bei geringer Last sogar sparsamer als die Sechskern-Vorgänger. Haben alle Cores viel zu tun, rechtfertigt die Mehrleistung die gering erhöhte Leistungsaufnahme völlig. Ein effizientes Netzteil ist dafür die Voraussetzung.

Auch wenn ein Drittel mehr Kerne für Medienschaffende, welche die Kosten einer Xeon-Workstation scheuen, zunächst verlockend scheinen, will ein Umstieg dennoch gut überlegt sein. Ein neues Mainboard und neuer Speicher sind neben der CPU in jedem Fall zu bezahlen – da war der unveränderte Preis der Highend-CPU für Intel fast schon Pflicht. Soll für Medienbearbeitung ohnehin ein komplett neuer Rechner angeschafft werden, weil der alte noch genutzt wird, ist der 5960X die bessere Wahl als der 4960X.

Das gilt vor allem, wenn Zukunftssicherheit wichtig ist. Da die entsprechenden Xeon-CPUs demnächst erst erscheinen, dürfte Intel die neue Plattform einige Jahre mit neuen Produkten pflegen. Das ist bei der Serie 4900 nun nicht mehr zu erwarten. Wer einen Rechner damit noch aufrüsten oder von 3900 auf 4900 umsteigen will, sollte das bald tun, denn irgendwann werden die älteren CPUs als Neuware rar und teuer. Ein aktuelles gutes Beispiel noch für X79-Boards ist der Xeon E5-2650 v2 mit acht Kernen bei 2,6 bis 3,4 GHz. Dafür muss das Board aber eine passende Firmware besitzen. Übertakter, die sich ihr Technikspielzeug etwas kosten lassen, haben ohnehin kaum eine Wahl als den 5960X, denn andere Achtkerner mit offenem Multiplikator gibt es sonst in diesen Leistungsdimensionen nicht.

Dass beim Start einer neuen Speichergeneration wie jetzt mit DDR4 die Produktauswahl so groß ist, stellt ebenfalls ein Novum dar. Da aber bisher fast ausnahmslos auf Overclocker zugeschnittene Module erhältlich sind, sind die Preise entsprechend hoch. Schon in einigen Wochen dürfte sich das ändern, wenn die DIMMs für Xeons verfügbar werden – dann ist auch viel Speicher zu Preisen von DDR3 zu erwarten.  (nie)

 

Webseite:

www.golem.de/news/


 
 
 

Windows Store: Nutzer kritisieren Microsofts Vorgehen gegen Fake-Apps


Posted on: September 8th, 2014 by linkhero
 

Windows Store

Microsoft hat innerhalb von rund drei Monaten 1.500 sogenannte Fake-Apps aus dem Windows Store entfernt. Das klingt erst einmal viel, aber weiterhin enthält der Store viele fragwürdige App-Titel. Nutzer kritisieren das halbherzige Vorgehen von Microsoft.

Sie nerven und stören: Fake-Apps. Vor allem im Windows Store und auch im Windows Phone Store ist Microsoft dagegen vorgegangen und hat einige solcher Fake-Apps entfernt. Dabei handelt es sich um Einträge, die etwa die Bezeichnungen bekannter Apps kopieren und die Nutzer so in die Irre führen. Beispiele hierfür sind VLC, Youtube, Firefox, iTunes oder Ähnliches. Die Fake-Apps kosten oftmals Geld – die eigentlichen Originale sind hingegen kostenlos zu bekommen.

Mitte Mai 2014 hatte Microsoft verkündet, gegen derartige Fake-Apps vorgehen zu wollen. In den vergangenen drei Monaten hat Microsoft nun nach eigener Aussage 1.500 solcher Apps aus dem Windows Store entfernt. Allerdings kritisieren Nutzer, dass weiterhin viele Einträge im Windows Store vorhanden sind, die Markennamen und Logos anderer Apps verwenden. Eine exemplarische Suche nach Youtube veranschaulicht das existierende Problem.

Käufer von Fake-Apps bekommen Geld zurück

Wer sich eine Fake-App gekauft hat, kann sich an den Microsoft-Support wenden und soll das Geld zurückerhalten. Für die Käufer einer Fake-App könnte es schwierig sein zu erkennen, ob sie zu den Betroffenen zählen. Microsoft hat keine Liste der 1.500 entfernten Apps veröffentlicht, die Betroffenen helfen könnte. Es ist nicht bekannt, ob Microsoft die Käufer der betreffenden Produkte direkt informiert.

Unter Microsofts aktuellem Blog-Posting zur Löschaktion bemängeln Nutzer ein halbherziges Vorgehen gegen Fake-Apps. Sie berichten, dass Microsoft vielfach nicht angemessen auf gemeldete Verstöße reagieren würde. Wenn Microsoft auf Fake-Apps hingewiesen werde, erhalten sie die Antwort, sich an den App-Entwickler zu wenden. Der Hüter des Windows Stores selbst wird erst einmal nicht aktiv.

Microsofts Dilemma

Microsofts Dilemma ist weiterhin offensichtlich. Einerseits möchte Microsoft, dass sowohl im Windows Store als auch im Windows Phone Store möglichst viele App-Titel aufgelistet sind. Auf der anderen Seite sorgen Fake-Apps dafür, dass der Store unnötig unübersichtlich ist und eine Vielfalt vorgaukelt, die nicht gegeben ist. Das könnte das bisher zögerlich erscheinende Vorgehen von Microsoft erklären. Der Hersteller will die Menge der Einträge im Windows Store offenbar nicht zu sehr verringern.

Ein Kommentator fasst das Problem zusammen: Er unterstellt Microsoft, dass das Unternehmen bis Mai 2014 mit Freude und Begeisterung solche Fake-Apps durchgewunken habe. Falls das nicht stimme, sei es ein Indiz für eine bisherige fahrlässige Prüfung der App-Einreichungen.

Die nächsten Monate werden zeigen, ob Microsoft nun entschiedener gegen Fake-Apps im Windows Store vorgeht. Es wäre zu wünschen, denn unterm Strich werden es die Kunden des Stores zu schätzen wissen, wenn Suchergebnisse die passenden Treffer liefern. Derzeit ist es bei populären Apps noch immer so, dass bei einer Suche danach stattdessen Produkte mit zweifelhaftem Nutzen erscheinen.

 

Adresse der Quelle:

http://www.golem.de/news


 
 
 

Games – Das Tamagotchi-Gefühl


Posted on: September 7th, 2014 by linkhero
 

Vor mir auf dem Schreibtisch liegt ein kleines rotes Plastikei mit einem schmalen Display, auf dem, grob und hässlich gepixelt, ein virtuelles Küken zu sehen ist, ein rhythmisch vor sich hinpulsierendesTamagotchi. Es piepst und kackt. Es will gefüttert und gepflegt werden. Und es bettelt um Aufmerksamkeit. In einem heute unendlich fern scheinenden Stadium der Mediengeschichte waren diese Küken einmal ein Riesengeschäft. In den 1990er-Jahren wurden weltweit 80 Millionen Stück verkauft. Und bald piepste es überall. Auf Schulhöfen, in U-Bahnen, in Kindergärten. Psychologen fürchteten die Virtualisierung des Mitgefühls, und im italienischen Parlament wurde mit großem Ernst die Frage debattiert, ob Kinder, die ihr Küken nicht richtig pflegen und es damit fahrlässig in den virtuellen Tod treiben, womöglich durch dieses Verlusterlebnis traumatisiert werden.

Heute sind die Tamagotchis längst vom Markt verschwunden. Aber das Tamagotchi-Gefühl, dieser Zustand permanenter innerer Alarmiertheit, lebt. Irgendwo da draußen hockt inzwischen eine ganze Armee von virtuellen Küken und fordert Zuwendung. Das Tamogotchi-Gefühl macht uns nervös. Es raubt uns den Schlaf, lässt uns fahrig werden, unkonzentriert. Niemand scheint noch in der Lage zu sein, all die Anfragen und Mails, all die Breaking-News-Geschichten, die Postings und SMS-Botschaften, all die Tweets und Blogs, all die Zeitungsartikel und Bücher zu verarbeiten. Und manchmal erleben wir, gerade in den etwas unheimlich gewordenen Momenten der Stille, ein plötzliches Vibrieren oder Brummen in der Hosentasche.

Sog der Ablenkung

War da nicht was? Hat unser Handy-Tamagotchi nicht gerade ein aktuelles Signal seiner Zu-wendungsbedürftigkeit gesendet? Haben wir schon wieder eine Nachricht verpasst? Aber da war nichts. Allein in Deutschland erleben 25 Millionen Menschen sogenannte Phantomanrufe. Fomo (the fear of missing out) ist alltäglich geworden. Wir existieren beständig in dem Gefühl, irgendetwas Wichtiges zu verpassen, und leiden doch unter der selbsterzeugten Atmosphäre einer ungesunden Daueraufregung.

Längst hat sich – Resultat einer eigentümlichen Dialektik der Trends – eine Verweigerungsbewegung im Zentrum der Netzkultur gebildet, die dem Informations- und Interaktivitätsterror zu entkommen sucht. Medientheoretiker wie Evgeny Morozov erklären öffentlich, dass sie ihr Smartphone immer wieder in einen Safe mit Zeitschaltuhr wegsperren, und loben die produktive Kraft der Langweile, die Inspiration durch das kommunikative Nichts.

Selbsterfahrungs- und Sehnsuchtsbücher wie Ohne Netz und Ich bin dann mal offline propagieren die Segnungen der Unerreichbarkeit, ehemalige Netzenthusiasten wie Douglas Rushkoff (Present Shock) attackieren den Sog der permanenten Ablenkung und empfehlen wie Howard Rheingold in seinem Buch Net Smart die meditative Versenkung. In den USA zelebriert die Digital-Detox-Bewegung (Zielgruppe: gestresste Internet-Aficionados) einen Kult der medienfreien Unmittelbarkeit. Man bietet in eigenen Camps den gemeinsamen Tanz unter riesigen Redwood-Bäumen, will die tiefe, echte Begegnung – bei gleichzeitiger totaler Smartphone-Abstinenz. Und selbst die Bewusstseinsingenieure von Google und Facebook schicken ihre Mitarbeiter zu den kalifornischen Wisdom-2.0-Konferenzen und fördern in ihren Unternehmen Contemplative Computing, die Anwendung von Achtsamkeitstechniken zur Linderung von akutem Info-Stress.

Es wäre falsch, diese spezielle Mischung aus Spiritualität und Selbstoptimierung zu verspotten, denn all dies ist auch ein Zeichen der Zeit, ein Symptom. Zum einen wird hier ein Gefühl der Überforderung sichtbar; zum anderen ein Bedürfnis nach Ruhe und unbedingter Konzentration. Und schließlich offenbart die aktuelle Achtsamkeitsdebatte der Netzszene (aber ebendies gilt es zu kritisieren) eine Verengung des Denkens, die das Weltproblem des Umgangs mit Information primär als Wellnessproblem des Einzelnen begreift. Das hilflose, vom Datengewitter und den modernen Tamagotchis gepeinigte Ich ist in den gegenwärtigen Diskussionen über das Uraltproblem der Informationsüberflutung (ein 1970 von dem Zukunftsforscher Alvin Toffler erfundener Begriff) zur zentralen Instanz aufgerückt. Und eben weil man so individualistisch-reduktionistisch denkt, erfindet man in der Folge auch individualistisch-reduktionistische Konzepte für die Arbeit am Ich. Der Blick dreht sich vom Äußeren ins Innere, weg von den virtuellen Küken unserer Zeit zur persönliche Seelenpflege.

Die entschieden unpolitische Prämisse der Problemdiagnose und Rezeptfindung besteht in der Annahme, dass uns Information überhaupt ungefiltert und direkt erreicht. Aber das stimmt nicht. Es ist zu einfach, nur den einzelnen Menschen und seine Bedrohung durch eine heranrollende Informationslawine zu betrachten.

Denn bevor diesen Einzelnen überhaupt irgendetwas erreicht, bevor er anfängt, Informationen auszuwählen oder aber sie gezielt zu ignorieren, haben längst andere, mehr oder minder transparent agierende Instanzen und Institutionen für ihn ausgewählt. Faktisch lebt der heutige Mensch gleichzeitig in drei ineinander verschachtelten Informationswelten, für die er auf dem Weg zur echten, umfassenden Informationssouveränität unterschiedliche Strategien benötigt.

Kokon der ersten Welt

Da ist – erstens – die Welt der individuellen Auswahlzwänge. Hier gilt das Prinzip: Man kann nicht nicht wählen und muss sich entscheiden, ob man auf Mails reagiert, einen Link anklickt, das Handy stets griffbereit hat oder einfach mal ein paar Tage lang um Redwood-Bäume herumtanzt. In diesem Kokon der ersten Welt ist das Individuum die entscheidende Instanz der Filterung; hier wird mit unterschiedlichen Methoden um die Ich-Erlösung gerungen. Und hier kann die Achtsamkeitsmeditation oder die Smartphone-Abstinenz tatsächlich helfen, um auf diese Weise die eigene Konzentration zu schützen.

Aber dann gibt es da – zweitens – noch die Sphäre der klassischen Massenmedien und etablierten Medienmarken. Sie verkörpern eine Welt der prinzipiell bekannten Auswahlentscheidungen. Natürlich vermag der Einzelne nicht im Detail zu sagen, was in welcher Weise aus den unendlichen Informationsströmen für ihn ausgesucht wird, aber er kennt die Auswahlregeln zumindest prinzipiell, er könnte sie zumindest kennen. Wir wissen zum Beispiel, wofür sich Journalisten interessieren, was für sie eine Nachricht ist und was nicht, warum Skandale, Krisen und Kriege, Prominente und Rekorde in ihrer Welt eine solche Bedeutung besitzen.

Und wir wissen natürlich auch, dass einzelne Medien ihre eigenen Auswahlprogramme besitzen, ihre besondere redaktionelle Linie, die ebenso steuert, was dann tatsächlich den Sprung in das jeweilige Medium schafft. Denn natürlich wählt die Kronen Zeitung anders aus als die Neue Zürcher Zeitung und noch mal anders als der Falter oder die New York Times. Und jede einzelne Zeitung, jeder Radiosender, jedes Fernsehprogramm und jede Website macht dem eigenen Publikum täglich aufs Neue das Versprechen individuell bedeutsamer, sorgfältig recherchierter Information. Die entscheidende Strategie besteht in dieser zweiten Welt darin, die richtigen Scouts im Informationsuniversum zu entdecken, also jene Journalisten und Medien ausfindig zu machen, die einem empfehlen und nahebringen, was einem selbst bedeutsam erscheint. Es ist ein wenig so, als ob sich der Einzelne in dieser zweiten Welt der prinzipiell bekannten Auswahlentscheidungen unvermeidlich eine getönte Brille aufsetzen muss, sich aber doch für eine bestimmte Brille und die Art der Tönung entscheiden kann – und dies dann auch möglichst bewusst tun sollte. Mit anderen Worten: Man braucht hier gut begründetes Relevanzvertrauen.

Automatisierte Entscheidungen

Viel weniger transparent und deutlich undurchdringlicher erscheint hingegen die dritte Welt der unsichtbaren Auswahlentscheidungen, mit denen uns Suchmaschinen, News-Aggregatoren und soziale Netzwerke konfrontieren. Hier regieren Algorithmen, mathematische Entscheidungsprozeduren, die wir nicht kennen, intransparente Filter, die den Realitätsausschnitt des überhaupt Wahrnehmbaren programmieren. Googles personalisierter Algorithmus prägt diese weitgehend intransparente Welt, Edge Rank von Facebook, der algorithmisch gesteuerte Trenddienst von Twitter, der Empfehlungsalgorithmus von Amazon oder von Youtube, der einzelne Videos als sehenswert emporspült.

Um in dieser Welt der automatisierten Vorentscheidungen tatsächlich Souveränität zu gewinnen, benötigen die vielen Einzelnen nicht primär Achtsamkeitsübungen oder einen vertrauenswürdigen Scout, sondern zunächst und vor allem die politisch gewollte und juristisch durchgesetzte Aufklärung.

Hier gilt es zunächst überhaupt erst einmal herauszufinden, nach welchen Kriterien ausgewählt wird und wer sein Marktmonopol in welcher Weise nutzt, um Informationen zu puschen oder aber vergessen zu machen.

Hier, in dieser dritten Welt der weitgehend unsichtbaren Auswahlentscheidungen, ist der Einzelne auf Politik und Gesellschaft angewiesen, auf Instanzen also, die über ihn selbst hinausweisen, die für ihn Rechte erstreiten, Spielregeln der Informationsordnung definieren und durchset-zen. Aber auch diese weitgehend diffuse Welt der Netzgiganten ist nie das Ganze, denn alle drei Welten schieben sich ineinander und fordern uns parallel.

Brandheiße Nachrichten

Nur mein altes Tamagotchi wird vermutlich demnächst sein Leben aushauchen und, wie es in der Gebrauchsanweisung heißt, auf seinen “Heimatplaneten zurückkehren.” Und sonst? Drei entgangene Anrufe auf meinem Smartphone, 17 neue Mails, eine SMS; brandheiße, gewiss alles entscheidende Nachrichten, die mich, kaum ist das Schreiben zu Ende, blitzschnell in eine permanent flirrende Gegenwart zurückholen, den Standby-Modus abwartender Aufgeregtheit. Vielleicht sollte ich all diese Botschaften jetzt einfach ungelesen löschen und zumindest in Gedanken für einen Moment um einen riesigen Redwood-Baum tanzen. Nur dieses eine Mal. (Bernhard Pörksen, 30. August, 2014)

 

Originalbeitrag lesen:

derstandard.at/2000004928450/DasTamagotchi-Gefuehl


 
 
 

So erleichtert Spracherkennung Ihr Leben


Posted on: September 5th, 2014 by linkhero
 

Seit über fünfzig Jahren nutzen wir Computer hauptsächlich mit der Tastatur. Das hat sich auch im Tablet- und Smartphone-Zeitalter nicht wesentlich geändert – die Tastatur wird dort einfach auf dem Bildschirm eingeblendet. Doch es gibt viele Situationen, in denen eine Tastatur einfach nicht praktisch ist, oder es intelligentere und produktivere Alternativen gäbe.

Mit einer Spracherkennungssoftware – etwa wie Dragon Naturally Speaking 13 -, bleiben Ihre Hände frei.. Außerdem können Sie sich mit einer Spracherkennung frei im Raum bewegen – eine Tastatur fesselt Sie an den Schreibtisch. Die gewonnene Freiheit ist letztlich weniger belastend für die Schultern, Arme und den Hals. Der Clou: Die meisten Menschen diktieren bis zu drei Mal schneller, also sie tippen. Dadurch steigt die Produktivität enorm. 

Wir zeigen mit drei alltäglichen Beispielen, wie Spracherkennung hilft, Ihr Leben zu verbessern.

Zu Hause

Wenn Sie eine vielbeschäftigte Mutter oder Vater sind, dann ist Multitasking wahrscheinlich ein zwangsläufiger Teil Ihres Lebens. Während Sie das Abendessen oder den Abwasch machen, hilft Ihnen beispielsweise Spracherkennungssoftware, sich mit Ihren Mails zu befassen, Rezepte Online zu suchen oder einen Text für die Schule oder den Verein zu diktieren. Sie brauchen dafür nicht Ihre Hände! Sie können auch Facebook oder Twitter-Posts aktualisieren, per Sprache mit Ihrem Browser surfen und Beiträge aller Art schreiben.

Was auch immer Sie machen, Sie können Ihre Gedanken ordnen, dann wieder auf den Bildschirm blicken – gut zu wissen, dass Sie nur noch eine Handvoll Korrekturen machen müssen, dank der präzise Spracherkennung von Dragon Naturally Speaking 13. Die neueste Version wurde entwickelt, um mit Google Mail, Yahoo! Mail und Outlook.com sowie Microsoft Office-Anwendungen zu arbeiten. Die Software funktioniert mit dem in Ihrem Laptop eingebauten Mikrofon als Ersatz für ein Headset-Mikrofon.

 

Im Büro

Das Schreiben von endlosen E-Mails oder lange Berichte kann mühsam sein – aber es nicht nötig, dabei am Schreibtisch zu sitzen. Stehen Sie auf und strecken Sie sich. Denn Sie können die Spracherkennung verwenden, um Ihre Mails oder Dokumente zu entwerfen, während Sie sich im Zimmer bewegen. Mit intuitiven Befehlen bearbeiten Sie das Dokument quasi nebenbei, während sich die Software um die Rechtschreibung kümmert. Sprechen Sie dabei ganz normal und in einem gleichmäßigen Tempo: Dragon Naturally Speaking 13 erkennt bis zu 99% ohne Training – mit Training verbessern Sie diese Rate zusätzlich: Die in die Software integrierten Analyse-Tools helfen der Software, sich an Ihren Wortschatz und Schreibstil anzupassen.

Ebenfalls praktisch: Unterwegs können Sie auch ein Aufnahmegerät benutzen (für das Smartphone gibt es z.B. eine kostenlose App von Dragon). Am Arbeitsplatz wandelt dann Dragon Naturally Speaking die Audio-Datei in Text um. Kurz gesagt, Dragon hilft Ihnen, mehr Aufgaben schneller zu erledigen.

Jetzt kaufen: Dragon Naturally Speaking 13

Für den Einsatz in Unternehmen mit mehreren Anwendern wird die Nutzung der Mehrplatzlizenz-Lösungen Dragon NaturallySpeaking Professional und Dragon NaturallySpeaking Legal empfohlen.

 

In der Schule und Universität

Erste Hausarbeiten oder Projekte durchzuführen, kann für Schüler und Student zu einer Herausforderung werden – umso mehr, wenn sie mit der Tastatur oder etwa Legasthenie kämpfen. Verwenden Schüler und Studenten aber eine Spracherkennung, dann kümmert sich die Software um den Schreibprozess, so dass sie sich komplett auf die Arbeit konzentrieren können. Sie schreiben dadurch schneller, weil die Software die Rechtschreibung korrigiert. Die einfach zu bedienende Schnittstelle hilft bei der Bearbeitung der erfassten Texte. Darüber hinaus hat Dragon Naturally Speaking eine Text-to-Speech-Funktion (das Vorlesen des erfassten Textes) beim Korrekturlesen.

Dieselbe Audiodatei-zu-Text-Funktionen, die wir weiter oben unter „Im Büro“ erwähnt haben, bedeutet auch einen großen Vorteil für Studenten. Diese können überall Gedanken und Ideen notieren. Es geht also nicht nur um „Sprechen statt tippen“, sondern um die Erschließung des wahren Potenzials eines jeden Menschen.

 

Artikel-Quelle:

www.pcwelt.de/


 
 
 

Urheberrecht

Was für Software gilt, gilt noch lange nicht für andere digitale Waren. Bei E-Books und Hörbüchern darf der Weiterverkauf von Downloads untersagt werden.

Anbieter von E-Book- und Hörbuch-Downloads dürfen den Weiterverkauf der Dateien untersagen. Ein entsprechendes Urteil des Oberlandesgerichts (OLG) Hamm vom Mai 2014 ist jetzt rechtskräftig geworden. Wie der Bundesgerichtshof in Karlsruhe am Donnerstag bestätigte, nahm der Verbraucherzentrale Bundesverband e.V. seinen Einspruch gegen die Entscheidung des OLG, eine Revision nicht zuzulassen, zurück. Die Verbraucherzentrale hatte gegen den Online-Händler buch.de geklagt, der das Verbot des Weiterverkaufs in seinen Allgemeinen Geschäftsbedingungen verankert hat. (BGH AZ: I-ZR 120/14, OLG Hamm AZ: 22 U 60/13)

Das nun rechtskräftige Urteil sei ein wichtiges, positives Signal, hieß es in einer Mitteilung des Börsenvereins des Deutschen Buchhandels. Die Entstehung eines “Gebrauchtmarktes” für E-Books und Hörbücher könne weder im Sinne der Autoren, Verlage und Händler noch der Kunden sein. Der Primärmarkt für digitale Inhalte würde in einem solchen Fall völlig zusammenbrechen. “Im Gegensatz zu gedruckten Büchern können digitale Bücher praktisch unendlich vervielfältigt und weitergegeben werden, zudem nutzen sie sich nicht ab. Welchen Grund gäbe es, das Original zu kaufen, wenn es eine riesige Auswahl identischer, aber günstigerer Kopien gibt?”, fragte der Börsenverein.

Software ist ein spezieller Fall

Ebenso hatte das OLG Hamm argumentiert. Nach Ansicht der Richter unterliegen aus dem Internet heruntergeladene Audio-Dateien und deren Kopien der Regelung von Paragraf 19 des Urheberrechtsgesetzes. Demnach bleibt das “Recht der öffentlichen Zugänglichmachung” auch nach dem Download beim Urheber. Anders als bei gedruckten Büchern oder CDs ende das Verbreitungsrecht des Urhebers nicht mit dem Verkauf, urteilten die Richter.

Der Gesetzgeber unterscheide zudem bewusst zwischen Computerprogrammen und anderen digitalen Dateien. Beim entsprechenden Paragrafen 69a-g des Urheberrechtsgesetzes handele es sich “um eine ganz spezielle, maßgeschneiderte Lösung exakt für und nur für Computerprogramme …, die nicht analogiefähig ist und es auch nicht sein soll”. Die Entscheidung des EuGH (C 128/11), wonach Software ohne Zustimmung des Herstellers weiterverkauft werden darf, betreffe Software und nicht andere digitale Produkte, insbesondere nicht Multimediadateien, speziell Hörbücher. “Ausgehend von den vorstehenden Ausführungen lassen sich die Spezialregelungen für Software nicht generalisieren”, schrieb das Gericht.  (fg)

 

www.golem.de/news/urheberrecht-e-book-anbieter-duerfen-weiterverkauf-von-dateien-untersagen-1408-108879.html

www.golem.de/


 
 
 

Schad- und Spähsoftware


Posted on: August 12th, 2014 by linkhero
 

Trojaner

Wie das Trojanische Pferd in der griechischen Mythologie verbergen Computer-Trojaner ihre eigentliche Aufgabe (und Schädlichkeit!) hinter einer Verkleidung. Meist treten sie als harmlose Software auf: Bildschirmschoner, Videodatei, Zugangsprogramm. Sie werden zum Beispiel als E-Mail-Anhang verbreitet. Wer das Programm startet, setzt damit immer eine verborgene Schadfunktion ein: Meist besteht diese aus der Öffnung einer sogenannten Backdoor , einer Hintertür, die das Computersystem gegenüber dem Internet öffnet und durch die weitere Schadprogramme nachgeladen werden.
 

Virus

Computerviren befallen vorhandene Dateien auf den Computern ihrer Opfer. Die Wirtsdateien funktionieren – zumindest eine Zeit lang – weiterhin wie zuvor. Denn Viren sollen nicht entdeckt werden. Sie verbreiten sich nicht selbständig, sondern sind darauf angewiesen, dass Computernutzer infizierte Dateien weitergeben, sie per E-Mail verschicken, auf USB-Sticks kopieren oder in Tauschbörsen einstellen. Von den anderen Schad- und Spähprogrammen unterscheidet sich ein Virus allein durch die Verbreitungsmethode. Welche Schäden er anrichtet, hängt allein vom Willen seiner Schöpfer ab.
 

Rootkit

Das kleine Kompositum führt die Worte “Wurzel” und “Bausatz” zusammen: “Root” ist bei Unix-Systemen der Benutzer mit den Administratorenrechten, der auch in die Tiefen des Systems eingreifen darf. Ein “Kit” ist eine Zusammenstellung von Werkzeugen. Ein Rootkit ist folglich ein Satz von Programmen, die mit vollem Zugriff auf das System eines Computers ausgestattet sind. Das ermöglicht dem Rootkit weitgehende Manipulationen, ohne dass diese beispielsweise von Virenscannern noch wahrgenommen werden können. Entweder das Rootkit enthält Software, die beispielsweise Sicherheitsscanner deaktiviert, oder es baut eine sogenannte Shell auf, die als eine Art Mini-Betriebssystem im Betriebssystem alle verdächtigen Vorgänge vor dem Rechner verbirgt. Das Gros der im Umlauf befindlichen Rootkits wird genutzt, um Trojaner , Viren und andere zusätzliche Schadsoftware über das Internet nachzuladen. Rootkits gehören zu den am schwersten aufspürbaren Kompromittierungen eines Rechners.
 

Wurm

Computerwürmer sind in der Praxis die getunte, tiefergelegte Variante der Viren und Trojaner. Im strengen Sinn wird mit dem Begriff nur ein Programm beschrieben, das für seine eigene Verbreitung sorgt – und der Programme, die es transportiert. Würmer enthalten als Kern ein Schadprogramm , das beispielsweise durch Initiierung eines eigenen E-Mail-Programms für die Weiterverbreitung von einem befallenen Rechner aus sorgt. Ihr Hauptverbreitungsweg sind folglich die kommunikativen Wege des Webs: E-Mails, Chats, AIMs , P2P-Börsen und andere. In der Praxis werden sie oft als Vehikel für die Verbreitung verschiedener anderer Schadprogramme genutzt.
 

Drive-by

Unter einem Drive-by versteht man die Beeinflussung eines Rechners oder sogar die Infizierung des PC durch den bloßen Besuch einer verseuchten Web-Seite. Die Methode liegt seit einigen Jahren sehr im Trend: Unter Ausnutzung aktueller Sicherheitslücken in Browsern und unter Einsatz von Scripten nimmt ein auf einer Web-Seite hinterlegter Schadcode Einfluss auf einen Rechner. So werden zum Beispiel Viren verbreitet, Schnüffelprogramme installiert, Browseranfragen zu Web-Seiten umgelenkt, die dafür bezahlen und anderes. Drive-bys sind besonders perfide, weil sie vom PC-Nutzer keine Aktivität (wie das Öffnen einer E-Mail) verlangen, sondern nur Unvorsichtigkeit. Opfer sind zumeist Nutzer, die ihre Software nicht durch regelmäßige Updates aktuell halten – also potentiell so gut wie jeder.
 

Botnetz

Botnets sind Netzwerke gekidnappter Rechner – den Bots. Mit Hilfe von Trojaner-Programmen, die sie beispielsweise durch manipulierte Web-Seiten oder fingierte E-Mails auf die Rechner einschleusen, erlangen die Botnet-Betreiber Zugriff auf die fremden PC und können sie via Web steuern. Solche Botnets zu vermieten, kann ein einträgliches Geschäft sein. Die Zombiearmeen werden unter anderem genutzt, um millionenfache Spam-Mails zu versenden, durch eine Vielzahl gleichzeitiger Anfragen Web-Seiten in die Knie zu zwingen oder in großem Stile Passwörter abzugrasen. (mehr bei SPIEGEL ONLINE)
 

Fakeware, Ransomware

Das Wort setzt sich aus “Fake”, also “Fälschung”, und “Ware”, der Kurzform für Software zusammen: Es geht also um “falsche Software” . Gemeint sind Programme, die vorgeben, eine bestimmte Leistung zu erbringen, in Wahrheit aber etwas ganz anderes tun. Häufigste Form: angebliche IT-Sicherheitsprogramme oder Virenscanner. In ihrer harmlosesten Variante sind sie nutzlos, aber nervig: Sie warnen ständig vor irgendwelchen nicht existenten Viren und versuchen, den PC-Nutzer zu einem Kauf zu bewegen. Als Adware-Programme belästigen sie den Nutzer mit Werbung.

Die perfideste Form aber ist Ransomware : Sie kidnappt den Rechner regelrecht, macht ihn zur Geisel. Sie behindert oder verhindert das normale Arbeiten, lädt Viren aus dem Netz und stellt Forderungen auf eine “Reinigungsgebühr” oder Freigabegebühr, die nichts anderes ist als ein Lösegeld: Erst, wenn man zahlt, kann man mit dem Rechner wieder arbeiten. War 2006/2007 häufig, ist seitdem aber zurückgegangen.

 

Zero-Day-Exploits

Ein Zero-Day-Exploit nutzt eine Software-Sicherheitslücke bereits an dem Tag aus, an dem das Risiko überhaupt bemerkt wird. Normalerweise liefern sich Hersteller von Schutzsoftware und die Autoren von Schadprogrammen ein Kopf-an-Kopf-Rennen beim Stopfen, Abdichten und Ausnutzen bekanntgewordener Lücken.
 

Risiko Nummer eins: Nutzer

Das größte Sicherheitsrisiko in der Welt der Computer sitzt vor dem Rechner. Nicht nur mangelnde Disziplin bei nötigen Software-Updates machen den Nutzer gefährlich: Er hat auch eine große Vorliebe für kostenlose Musik aus obskuren Quellen, lustige Datei-Anhänge in E-Mails und eine große Kommunikationsfreude im ach so informellen Plauderraum des Webs. Die meisten Schäden in der IT dürften von Nutzer-Fingern auf Maustasten verursacht werden.

 

DDoS-Attacken

Sogenannte distribuierte Denial-of-Service-Attacken (DDoS) sind Angriffe, bei denen einzelne Server oder Netzwerke mit einer Flut von Anfragen anderer Rechner so lange überlastet werden, bis sie nicht mehr erreichbar sind. Üblicherweise werden für solche verteilten Attacken heutzutage sogenannte Botnetze verwendet, zusammengeschaltete Rechner, oft Tausende oder gar Zehntausende, die von einem Hacker oder einer Organisation ferngesteuert werden.
 
Website:

 
 
 

Youtube und Google+: Google schafft Klarnamenzwang ab


Posted on: August 8th, 2014 by linkhero
 

So wie Facebook wollte auch Google die Mitglieder seines sozialen Netzwerks zwingen, ihre echten Namen zu benutzen. Nach einer Lockerung der Regelung vor zwei Jahren verzichtet Google jetzt ganz auf den Klarnamenzwang und entschuldigt sich.

In einem unerwarteten Schritt hat Google für Google+-Benutzerkonten den Klarnamenzwang sowie bisherige Verifizierungsmodalitäten für Pseudonyme abgeschafft. Ab sofort sind Nutzer bei der Wahl ihrer Namensangaben im Profil völlig frei, wie das Unternehmen auf Google+ verkündet.

Überraschend ist der Schritt, weil die Debatte über Sinn und Unsinn der Erforderlichkeit des Klarnamens bei Google+ schon drei Jahre zurückliegt. Damals waren Google selbst und leidenschaftliche Nutzer seiner kurz zuvor eingeführten, alle Google-Dienste vernetzenden “soziale Ebene” voller Hoffnung.

Mittlerweile ist Google+ die Puste ausgegangen. Auch, weil aus Unternehmenssicht eine wichtige Aufgabe von Google+ abgeschlossen wurde, nämlich die Vereinheitlichung der Benutzerkonten zur besseren, effektiveren Werbevermarktung und Nutzerdatenanalyse. Dass der Konzern selbst keine großen Ambitionen mehr für Google+ hat, zeigt die Abwesenheit seiner Erwähnungen auf der jüngst abgehaltenen Google-Entwicklerkonferenz I/O. Der “Vater” des Projekts, Vic Gundrota, verließ das Unternehmen jüngst.

Anfang 2012 hatte Google zwar schon Pseudonyme erlaubt und damit seine “Gebrauchsnamenpflicht”, wie das Unternehmen es selbst nannte, etwas aufgeweicht. Doch Kritikern ging der Schritt nicht weit genug, zumal er erheblichen Einschränkungen unterlag.

Die jetzige Entscheidung zur Abschaffung des Klarnamenzwangs begründet Google mit dem Streben nach einem alle Menschen inkludierenden Ort. Das Unternehmen entschuldigt sich auch gleich noch bei allen Personen, die sich bislang durch den Zwang zur Angabe ihres vollen Namens ausgegrenzt fühlten.

Ein Schritt, um Youtube-Nutzer zu besänftigen?

Der Schritt, ausgeführt zum Höhepunkt des medialen Sommerlochs, im Urlaubsmonat Juli kurz nach Abschluss der Fußballweltmeisterschaft, wirkt schon etwas kurios. Als Reaktion auf die einstigen Proteste gegen Googles sture Haltung kann der Entschluss aufgrund der seitdem vergangenen Zeit kaum gewertet werden. Und ganz ohne Begrenzungen kommen die Namensrichtlinien auch weiterhin nicht aus: Auf der Hilfeseite, die während einer Namensänderung verlinkt wird, informiert Google darüber, dass nach einer Modifizierung bis zu drei Monate lang keine weiteren Änderungen möglich sind.

Unterm Strich lässt sich die Neuigkeit, so nebensächlich sie für viele Anwender auch klingen mag, dennoch als Strategiewechsel bezeichnen. Google scheint nicht länger um jeden Preis die namentliche Identität der Nutzer in Erfahrung bringen zu wollen. Sei es, weil für die gezielte Anzeigenauslieferung ohnehin hinreichend Datenpunkte über jeden einzelnen Google-Nutzer vorhanden sind. Oder vielleicht, weil das Unternehmen doch noch einmal versuchen möchte, Google+ einen Push zu geben – und das dieses Mal über eine Differenzierung vom Hauptwettbewerber Facebook, nicht als “Me too”-Produkt.

Vielleicht geht es aber auch nur darum, Kritiker der unpopulären Implementierung von Google+ als Kommentarmodul bei Youtube zu besänftigen: Seit November ist ein Profil bei Google plus nötig, um Youtube-Videos zu kommentieren – was unter Youtube-Nutzern einigen Ärger erregt hat. Und anders als das aktuelle Google+ ist Youtube für Google wichtig.

Vermutlich ist die Maßnahme nur der erste von mehreren Teilschritten, mit denen Google+ in den nächsten Monaten umgebaut, in den Hintergrund gerückt oder für einen Relaunch fit gemacht wird. Denn in der aktuellen Form erfüllt das Produkt für Google keine bedeutende Rolle (mehr).

 

Homepage besuchen:

www.golem.de/news/youtube-und-google-google-schafft-klarnamenzwang-ab-1407-107906.html


 
 
 

Intel meldet Gewinnsteigerung um 40 Prozent im zweiten Quartal


Posted on: Juli 25th, 2014 by linkhero
 

Intel hat seinen Nettogewinn im zweiten Quartal um 40 Prozent auf 2,8 Milliarden Dollar oder 0,55 Dollar je Aktie gesteigert. Der Umsatz legte um 8 Prozent auf 13,8 Milliarden Dollar zu. Beide Kategorien übertreffen die Erwartungen von Analysten, die einen Überschuss von 0,52 Dollar je Aktie bei Einnahmen von 13,68 Milliarden Dollar vorausgesagt hatten.

 

Als Folge legte der Kurs der Intel-Aktie im nachbörslichen Handel um 4,48 Prozent oder 1,42 Dollar auf 33,13 Dollar zu. Damit liegt er deutlich über dem 52-Wochen-Hoch von 31,80 Dollar.

Die PC Client Group steuerte zwischen April und Juni 8,7 Milliarden Dollar zum Gesamtumsatz bei, was einem Plus von 6 Prozent entspricht. Die Verkaufszahlen stiegen Intel zufolge um 9 Prozent, während der Durchschnittspreis im Jahresvergleich um 4 Prozent zurückging. Der operative Gewinn verbesserte sich sogar um 41 Prozent auf 3,7 Milliarden Dollar.

Ein ähnlich gutes Ergebnis erzielte die Data Center Group. Ihre Einnahmen erhöhten sich um 19 Prozent auf 3,51 Milliarden Dollar, während ihr operativer Gewinn um 40 Prozent auf 1,82 Milliarden Dollar zulegte. Auch der Geschäftsbereich Internet der Dinge erzielte in beiden Kategorien Zuwächse und schloss das Quartal mit einem Umsatz von 539 Millionen Dollar und einem operativen Profit von 155 Millionen Dollar ab.

Der Verlust der Mobile and Communications Group erhöhte sich jedoch um 48 Prozent auf 1,12 Milliarden Dollar. Dem stehen Einnahmen aus dem Verkauf von Smartphone- und Tablet-Prozessoren von lediglich 51 Millionen Dollar gegenüber. Im Vorjahreszeitraum lag der Umsatz noch bei 292 Millionen Dollar.

Intel-CEO Brian Krzanich ist trotzdem davon überzeugt, dass sein Unternehmen das selbst gesteckte Ziel von 40 Millionen verkauften Tablet-Prozessoren in diesem Jahr erreichen wird. Die Mobilsparte werde vom Start der neuen Atom-Generation Baytrail und dem zunehmenden Interesse an Geräten mit Googles Chrome OS profitieren.

Bei einer Telefonkonferenz mit Analysten wies Krzanich darauf hin, dass das PC-Geschäft vor allem in Entwicklungsländern weiterhin eine Herausforderung sei. Es gebe aber erste Anzeichen einer Erholung des Markts im Consumer-Segment. Der Erfolg im Enterprise-Markt, der unter anderem auf dem Support-Ende von Windows XP beruhe, werde mindestens bis zum Jahresende anhalten.

Im laufenden dritten Quartal rechnet Intel mit Einnahmen zwischen 13,9 und 14,9 Milliarden Dollar und einer Bruttomarge von 66 Prozent. Im Geschäftsjahr 2014 will es seinen Umsatz um 5 Prozent steigern und eine Marge von 63 Prozent erreichen. Im dritten Quartal 2013 betrug der Umsatz 13,5 Milliarden Dollar.

[mit Material von Larry Dignan, ZDNet.com]

 

 

» Zur Anbieter-Website:

www.zdnet.de/88198678/


 
 
 

Apple: Marktreife für das iPhone 6 verzögert sich


Posted on: Juli 24th, 2014 by linkhero
 
Um das neue iPhone von Apple sprießen die Gerüchte. Teilweise sind sie wild bis absurd, andere wiederum scheinen plausibel. Wann das Release des iPhones 6 ist, wird von Apple noch als Geheimnis gehütet. Laut Bloomberg beginnen die chinesischen Zulieferer gerade mit der Produktion des neuen iPhones. Auf den Markt könnte es am 19. September kommen, berichtet die chinesische Webseite Tencent.

Technische Zeichnungen, die im Internet aufgetaucht sind, verraten, dass das neue iPhone wohl nur sechs Millimeter dick sein wird. Außerdem soll das neue iPhone 6 mit einem NFC-Chip für bargeldloses Bezahlen ausgestattet sein.

Fotos von Gehäuseteilen, die aus Fabriken stammen sollen, legen den Verdacht nahe, dass Apple gleich zwei neue iPhone-Modelle auf den Markt bringen will: Ein etwas kleineres mit einem 4,7 Zoll großen, randlosen 16:9 Bildschirm, und ein sogenanntes Phablet mit 5,2 Zoll großem, ultrahochauflösendem Display.

Letzteres Gerät soll als iPhone Air mit besonders dünnem Gehäuse vermarktet werden, die Akku-Probleme könnten seinen Marktstart bis Anfang 2015 verzögern. Angeblich setzt Apple bei der kommenden Gerätegeneration erstmals auf Saphirglas, um den Touchbildschirm besser gegen Kratzer zu härten.

Apples Flaggschiff definiert seit 2007 den Fortschritt einer ganzen Produktklasse. Ohne Steve Jobs’ Erfindung wären Smartphones vielleicht noch immer Geräte mit Tastatur, sicherlich aber nicht so verbreitet wie heute.

Doch mittlerweile droht die Revolution ihre Gründer hinter sich zu lassen, die Innovation im Smartphone-Segment treiben aktuell andere: Samsung erkannte als erster den Trend zum großen Bildschirm, Google zeigt modulare Telefone, Microsoft neue Drahtlos-Funktionen.

Seit dem iPhone 4s, seit Steve Jobs Tod im Oktober 2011, steht Apples Technologieführerschaft infrage.

Der Konzern steht unter hohem Druck seiner Investoren, die Erwartungen der Kunden zu erfüllen: ein größerer Bildschirm, mehr Speicherplatz, robustere Geräte.

 

Link zur Homepage:

www.welt.de


 
 
 

Jede Website braucht Besucher, je mehr, desto besser. Gerade Unternehmen, die Dienstleistungen oder Güter anbieten, sind Seitenbesucher und damit potentielle Käufer lebensnotwendig. Dabei ist es wie im echten Leben. Ein Ladengeschäft in einer Lage, wo sehr wenig Leute unterwegs sind, wird einfach nur schwach wahrgenommen und hat entsprechend geringe Kundschaft. Identisch verhält es sich mit einem Web-Shop, der bei Google bei themenbezogenen Suchwörtern nicht auf der 1. Ergebnisseite auftaucht und demzufolge ebenso gering bis gar nicht wahrgenommen wird. Das erste, was einem dazu einfällt, ist, eine Optimierung für Suchmaschinen entweder selbst in Angriff zu nehmen oder sie bei einer Agentur in Auftrag geben. Dies ist aber in jetzigen Zeiten mit einem erheblichen Aufwand beziehungsweise erheblichen Kosten verbunden, zumal sich die Auswirkungen einer zuverlässigen Suchmaschinenoptimierung erst Monate nach Beginn durch bessere Serps bemerkbar machen. Es gibt allerdings heutzutage noch ein weiteres Problem. Die großen Player im Internet-Handel wie Amazon, ebay, zalando, otto, und jede Menge mehr investieren große Summen in SEO-Optimierung- und Internetmarketingmaßnahmen, wobei kleinere Shops schlicht nicht mithalten können, schlicht auf Grund der finanziellen Potenz. Wenn man bei Google Suchbegriffe aus Branchen wie KFZ, Immobilien, Reisen, Ferien oder auch Unterhaltungselektronik eingibt, erhält man auf der ersten Suchergebnisseite lediglich große bis sehr große Händler, kleinere und möglicherweise hochwertigere Webshops haben hier keinerlei Chance. Was kann man tun? Meiner Ansicht nach haben kleine Shops wesentlich bessere Möglichkeiten, wenn sie sich spezialisieren. Also nicht die komplette Produktpalette einer Branche anbieten, sondern nur einen Teilbereich an Waren in ihr Warenangebot nehmen. Beispielsweise bei Kraftfahrzeugen könnte das dann nur Komponenten aus dem Gebiet der Elektrik oder Licht sein, entsprechend sollte man sich in seiner Branche überlegen: Wo bin ich gut?  In welchem Segment habe ich sehr gute Einkaufspreise und kann mich von der Masse auch mit Unterstützung absetzen? Das kann ein erfolgversprechender Weg sein, doch dazu muss man dann auch die richtigen Suchbegriffe ausfindig machen, die wohl weniger eingegeben werden, dafür aber auch weniger umkämpft sind. Gerade die kleineren Anbieter können sich aber auf die Google-Suche allein lange nicht mehr verlassen. Es müssen andere Vertriebskanäle erschlossen werden, um Besucher und Käufer auf die eigene Homepage zu bringen. Dazu mehr in einem der nächsten Artikel.


 
 
 

Im laufenden Jahr werden in Deutschland voraussichtlich erstmals mehr als neun Millionen Tablets verkauft werden. Wie der Branchenverband Bitkom auf Basis aktueller Prognosen des European Information Technology Observatory (EITO) schätzt, steigt der Absatz auf 9,2 Millionen Stück. Das entspräche einem Plus gegenüber dem Vorjahr von 15 Prozent. Verglichen mit den 2,3 Millionen Tablets, die im Jahr 2011 verkauft wurden, wäre es sogar eine Vervierfachung.

 

Der Umsatz wächst der EITO-Prognose zufolge allerdings nur noch um rund 5 Prozent auf 2,5 Milliarden Euro. Schon 2013 hatte das Tablet-Geschäft mit einem Absatzplus von 52 Prozent auf 8 Millionen Stück und einem Umsatzanstieg um 36 Prozent auf 2,4 Milliarden Euro neue Rekordwerte erreicht. “Tablet Computer haben sich etabliert und legen auf dem erreichten hohen Niveau weiter zu”, sagte Bitkom-Präsident Dieter Kempf.

Dass das Umsatzwachstum mit dem Geräteverkauf nicht Schritt halten kann, liegt dem Branchenverband zufolge an dem sich verschärfenden Preiswettbewerb, der inzwischen auch den Tablet-Markt erreicht hat. Lag der Durchschnittspreis pro Tablet vor drei Jahren noch bei mehr als 400 Euro so werden es in diesem Jahr weniger als 275 Euro sein.

“Für die Kunden sind das gute Nachrichten. Sie haben die Wahl zwischen einer Vielzahl von Modellen in unterschiedlichen Größen, Leistungsmerkmalen und auch Preisen”, so Kempf.

Außer für Tablets interessieren sich die Deutschen auch zunehmend für Datenbrillen wie Google Glass. Laut einer vom Marktforschungsinstitut Aris im Auftrag des Bitkom durchgeführten Umfrage, kann sich fast jeder Dritte (31 Prozent) vorstellen, sogenannte Smart Glasses zu nutzen. Das entspricht 22 Millionen Bundesbürgern. 13 Prozent der 1004 Befragten ab 14 Jahren gaben sogar an, auf jeden Fall solch eine Brille nutzen zu wollen.

 

“Der Start von Google Glass in den USA hat das Interesse an smarten Brillen auch in Deutschland messbar gesteigert”, sagt Bitkom-Experte Timm Hoffmann. Insgesamt sind Smart Glasses hierzulande deutlich bekannter geworden. Fast die Hälfte aller Deutschen (48 Prozent) hat schon davon gehört, im Vorjahr war es erst rund ein Viertel (27 Prozent).

Smart Glasses können Informationen wie E-Mails oder Navigationshinweise direkt ins Sichtfeld einblenden und erlauben es, Fotos und Videos aus dem Blickwinkel des Trägers aufzunehmen. Der Umfrage zufolge interessieren sich mehr Frauen als Männer für solche Brillen. Jede dritte Frau (33 Prozent) kann sich vorstellen, eine Datenbrille zu tragen. Bei den Männern fällt der Anteil mit 29 Prozent etwas geringer aus.

Leichte Unterschiede gibt es auch in den Altersklassen. 39 Prozent der 14- bis 29-Jährigen geben an, künftig smarte Brillen nutzen zu wollen. Bei den 30- bis 49-Jährigen sind es 33 Prozent und bei den 50- bis 60-Jährigen 34 Prozent. Bei Personen über 65 Jahren ist das Interesse an der neuen Technik mit 19 Prozent deutlich geringer.

 

 

externer Link zum Artikel:

www.zdnet.de/88196190/


 
 
 

Soziales Netzwerk: Google Orkut wird begraben


Posted on: Juli 17th, 2014 by linkhero
 

Orkut schließt seine Pforten

Das soziale Netzwerk Orkut ist älter als Facebook. Doch außerhalb von Brasilien und Indien war der Dienst nie sonderlich populär. Zugunsten von Google+ zieht Google nun einen Schlussstrich.

Bereits kurz vor Facebook und lange vor Google+ gründete Google mit Orkut sein erstes eigenes soziales Netzwerk: Orkut. Benannt wurde es nach dem Entwickler Orkut Buyukkokten. Hierzulande spielte es kaum eine Rolle, war vielen sogar gänzlich unbekannt, so dass man es hierzulande durchaus als Flop bezeichnen konnte. In Indien und Brasilien aber war es überaus populär. Mit dem Start von Google+ drängte Google die Orkut-Nutzer dazu, zum neuen Netzwerk und Facebook-Rivalen zu wechseln. Der nächste Schritt auf dem Weg ins Grab erfolgte Ende 2012, als es der Stopp neuer Features für Orkut angekündigt wurde. Nun hat Google angekündigt, die Pforten des sozialen Netzwerks am 30. September 2014 zu schließen. Nach dem Ende von Quickoffice ist das schon die zweite Schließungsmeldung aus Mountain View in dieser Woche.
Als Begründung für das Aus von Orkut wird das starke Wachstum von Youtube, Blogger und Google+ angegeben. Deren Communities würden das Orkut-Wachstum in den Schatten stellen. Google will seine Kräfte auf die anderen Projekte konzentrieren, heißt es im Orkut-Blog.

 

Zwar wird Orkut am 30. September begraben, doch noch bis September 2016 sollen die Nutzer noch Zeit haben, ihre Fotoalben und Profile zu exportieren. Das funktioniert über Google Takeout auf dieser Webseite. Nach dem 30. September wird man sich jedoch nicht mehr in Orkut einloggen können und Fotoalben von dort nicht mehr nach Google+ umziehen können. Wichtig: Wer eigene (öffentliche) Postings nicht für die Ewigkeit konservieren möchte, sollte diese bis Ende September löschen. Denn anschließend werden sie archiviert. Das komplette Orkut-Profil können Sie über www.google.com/settings/datatools und “Produkte löschen” entfernen.
 
Erstmalig veröffentlicht auf:

 
 
 

Die NSA saugt mit Hilfe von Drittpartnern an Internetknoten Kommunikationsdaten ab: Das belegen neue Dokumente aus dem Snowden-Archiv, die vom dänischen Dagbladet gemeinsam mit der Snowden-Vertrauten Laura Poitras publiziert wurden. Bislang war eine solche Kooperation nur zwischen britischem GCHQ und NSA bekannt, laut den Unterlagen sollen aber Geheimdienste einer Vielzahl von Ländern aktiv Daten an den US-Militärgeheimdienst weiterleiten.

Knotenpunkte im Visier

Das Prinzip: Partnerländer saugen an bestimmten Internetknotenpunkten alle Daten ab, leiten diese an ein “Datenzentrum“ weiter, wo sie von der NSA aufgenommen und in die USA geschickt werden. So funktioniert auch die Weiterleitung von Daten des GCHQ, der transatlantische Knotenpunkte absaugt. Als britischer Dienst ist der GCHQ aber Mitglied der sogenannten “Five Eyes“, einer engen nachrichtendienstlichen Partnerschaft zwischen den englischsprachigen Ländern Großbritannien, Kanada, Australien, Neuseeland und NSA.

RAMPART-A

Dass weitaus mehr Staaten willfährig ihren Internetverkehr absaugen und an die NSA weiterleiten, ist durchaus überraschend. In den jetzt veröffentlichten Dokumenten ist die Rede von “mehreren Third Party Countries“, die an der Massenüberwachung im RAMPART-A-Programm teilnehmen.

Spekulationen zu österreichischer Rolle

Auch Österreich gilt als “Third Party“, schon im Herbst 2013 war über mögliche Infiltration des Internetknotenpunkts VIX, der von der Uni Wien betrieben wird, spekuliert worden. Gesicherte Beweise gibt es jedoch nicht, da die Partnerstaaten einer extrem hohen Geheimhaltung unterliegen. So könnte es sein, dass nicht einmal Snowden-Dokumente Aufklärung darüber liefern, weil Snowden selbst keinen Zugang zu diesen Unterlagen hatte.

Dänemark vermutlich Partner

Laura Poitras und die Journalisten des dänischen Dagbladet können daher nur “stark vermuten“, dass Dänemark an RAMPART-A teilgenommen hat. Durch seine geografische Lage wäre Dänemark jedoch prädestiniert: So fließen viele Daten aus Deutschland über Dänemark gen Norden, wo sich etwa Datenzentren von Google und Facebook befinden. In die andere Richtung quert Internetverkehr aus Norwegen, Schweden und Finnland dänisches Gebiet, sogar russische Daten könnten abgefangen werden.

Special Source Operations

Zuständig für die Kooperationen ist innerhalb der NSA das Special Source Operations-Team (SSO), dessen Logo einen Adler zeigt, der Fiberkabel umklammert. Das SSO verfügt über ein großes Budget: 91 Millionen Dollar war den USA laut geheimen Black Budget-Unterlagen das Datenabsaugen wert, 76,55 Millionen davon sollen in RAMPART-A geflossen sein. Das Ergebnis: Über drei Terabit an Daten pro Sekunde, veranschaulicht gemacht: 362 Millionen CD-Roms pro Tag.

Europäischer Basar

In Dänemark haben die Enthüllungen, die auf information.dk in englischer Sprache zugänglich sind, heftige Debatten über die Legitimität der Kooperation ausgelöst. Die NSA nutzt hier allerdings fehlende europäische Integration: Schon Snowden hatte auf das Prinzip eines “europäischen Basars“ hingewiesen, auf dem Daten von Bürgern unterschiedlicher Nationen getauscht werden.

So ist Deutschland etwa das Ausspionieren von Deutschen verboten, Dänemark das Ausspionieren von Dänen. Daher benutzt die NSA deutsche Daten über Dänen und dänische Daten über Deutsche und umgeht so etwaige No-Spy-Abkommen, die mit den Partnerstaaten getroffen wurden. Die NSA wollte zu den Berichten keinen Kommentar abgeben.

 

Von:

derstandard.at/2000002152172/


 
 
 

Heartbleed gilt als eine der gravierendsten Sicherheitslücken in der Geschichte des Internets. Einen Monat danach scheint die Gefahr größtenteils gebannt zu sein, auch wenn noch nicht alle Betroffenen reagiert haben.

Einen Monat nach Bekanntwerden der Sicherheitslücke Heartbleed hat das Bundesamt für Sicherheit in der Informationstechnik (BSI) Entwarnung gegeben. Laut BSI haben die wichtigsten Websites inzwischen reagiert und die Sicherheitslücke geschlossen, die durch einen Fehler in der Verschlüsselungs-Software OpenSSL entstand.

So optimistisch zeigen sich allerdings nicht alle Experten: Laut Erratasec, einem Dienstleister für Internetsicherheit, sind weltweit immer noch mehr als 300.000 Webseiten unsicher. Auch nach Angaben von Netcraft haben noch nicht einmal die Hälfte der betroffenen Websites neue Zertifikate. Sie wären damit immer noch anfällig für einen Angriff, durch den ein Angreifer alles mitlesen kann, was über eine vermeintlich sichere Verbindung geschickt wird, zum Beispiel Passwörter für Onlinebanking.

Das Problem: Der Fehler in der Kryptografiesoftware OpenSSL war zwar schnell behoben, doch reicht es nicht, wenn ein Website-Betreiber nur die fehlerhafte Software austauscht. Denn über den Heartbleed-Fehler lassen sich die privaten kryptografischen Schlüssel des Servers auslesen. Die Schlüssel wiederum werden in Zertifikate integriert. Diese werden in Browsern oder E-Mail-Programmen der Anwender gespeichert, um einen verschlüsselten Zugang zu verifizieren.

Kein funktionierendes System zur Überprüfung von Zertifikaten

Administratoren betroffener Websites oder E-Mail-Anbieter müssen zunächst die fehlerhafte OpenSSL-Software austauschen, neue Schlüssel und damit neue Zertifikate erstellen. Schließlich müssen die alten Zertifikate zurückgezogen und damit für ungültig erklärt werden. Denn sonst besteht laut BSI die Gefahr, dass ein “Täter, der den SSL-Schlüssel erlangt hat, eine gefälschte Webseite aufsetzt, Opfer dort hinlockt und vorgaukeln kann, es handele sich um die echte, abgesicherte Seite”. Der Aufwand ist also nicht unerheblich.

Zertifikatsprüfung weitgehend nutzlos

“Der Zertifikatswechsel ist aber leider auch nur als symbolischer Akt zu sehen, da widerrufene Zertifikate in den meisten Browsern zu keiner Warnung führen. Ist der SSL-Schlüssel einer Webseite also erlangt worden, bleibt die Gefahr von Man-in-the-Middle-Angriffen bestehen”, heißt es vom BSI.

Es gebe gegenwärtig ohnehin kein funktionierendes System, mit dem Zertifikate überprüft werden könnten, sagt auch der Kryptografie-Experte und Golem.de-Autor Hanno Böck. Einige Browser überprüften zwar die Gültigkeit der Zertifikate, aber die Prüfung sei weitgehend nutzlos, weil sie bei einem gezielten Angriff verhindert werden könne, so dass das Zertifikat trotzdem akzeptiert werde.

Der Betreiber einer betroffenen Website oder ein E-Mail-Anbieter muss seine Kunden informieren und ihnen nahelegen, ihre Kennwörter zu ändern. Viele große Anbieter hätten das auch getan, “schon allein, um eventuelle Haftungsfragen auszuschließen”, teilte das BSI mit.

Hacker hatten keine Zeit, die Sicherheitslücke zu nutzen

Nach geltendem Datenschutzrecht müssen Einbrüche bei Plattformen, bei denen Daten gestohlen wurden, den Datenschutzbehörden gemeldet werden. Andernfalls drohen Bußgelder von bis zu 300.000 Euro. “Dem BSI wurden keine Vorfälle aus Deutschland gemeldet”, hieß es aus der Behörde. Auch große Internetkonzerne wie Google mit seinem E-Mail-Dienst Gmail gaben zwar an, von dem Heartbleed-Fehler betroffen zu sein. Dort waren die Lücken laut Google jedoch schon geschlossen, bevor die Heartbleed-Lücke öffentlich bekanntwurde. Google-Mitarbeiter hatten den Fehler gleichzeitig mit zwei unabhängigen Experten entdeckt.

Möglicherweise führte die massive Aufmerksamkeit zu einer so raschen Reaktion der meisten Betroffenen, dass potentielle Angreifer kaum Zeit hatten, die Sicherheitslücke effizient auszunutzen. Der einzige bekannte Fall ist der eines kanadischen Hackers, der sich über die Heartbleed-Lücke Zutritt zu Finanzbehörden verschaffte. Er wurde kurz darauf verhaftet.

Dennoch gibt es immer noch Grund zur Vorsicht: Vor allem über Links in Spam-Mails können Anwender auf gefälschte Websites gelangen, die mit bereits ungültigen Zertifikaten vom Browser als vertrauenswürdig eingestuft werden. Vermeintlich gesicherte Websites sollten beim ersten Besuch genau betrachtet werden, oft sind dort Unregelmäßigkeiten erkennbar, etwa sprachliche Fehler.

Nach Einschätzung des BSI ist die Gefahr beim Thema Heartbleed größtenteils gebannt. Erfahrungsgemäß bleibe zwar immer ein gewisser Prozentsatz an nicht aktualisierten Seiten übrig, man rechne jedoch nicht mehr mit massiven Fällen, hieß es von der Behörde.

 

Zur Internetseite:

www.golem.de/news/


 
 
 

Recht auf Vergessen bei Google: Zehntausende Löschanträge


Posted on: Juni 29th, 2014 by linkhero
 

Recht auf Vergessen bei Google

Die Möglichkeit, Verweise bei der Suchmaschine entfernen zu lassen, wird offenbar rege genutzt. Google informiert, dass über 40.000 Anträge gestellt wurden.


Am ersten Tag hatte es 12.000 Anfragen gegeben. Jetzt wird klar, dass das Interesse auch danach hoch geblieben ist. Das wirft die Frage auf, wie hoch der Aufwand von Google für die Bearbeitung am Ende sein wird und wie lange die Prüfung dauern könnte. Google-Chef Larry Page hatte bereits gewarnt, die EuGH-Entscheidung könne jungen Internet-Startups schaden, die nicht über die Ressourcen seines Konzerns verfügten.

 

Die Flut von Anträgen zur Löschung von Suchergebnissen bei Google ebbt nicht ab. Bis Montagabend gingen rund 41.000 Anträge ein, wie ein Google-Sprecher am Mittwoch mitteilte. Der Konzern hatte erst am Freitagmorgen in Europa ein Online-Formular für die Anträge freigeschaltet. Der Europäische Gerichtshof (EuGH) hatte vor gut zwei Wochen entschieden, dass Europas Bürger Google dazu verpflichten können, Links zu unangenehmen Dingen aus ihrer Vergangenheit aus dem Netz verschwinden zu lassen.

Google macht noch keine Angaben dazu, wie viele Links von den Anträgen betroffen sind und wie sich die Anfragen auf einzelne europäische Länder verteilen. Von den „einigen tausend“ Anträgen, die noch vor Bereitstellung des Web-Formulars eingingen, kamen laut Google 40 Prozent aus Deutschland.

Google soll die Verweise aus seiner Ergebnisliste entfernen, wenn dort enthaltene Informationen das Recht auf Privatsphäre und Datenschutz einer Person verletzten. Die Informationen können dabei auch weiterhin im Netz verfügbar bleiben.

Google will nur Links in seinen Diensten in den 28 EU-Ländern sowie Island, Norwegen, Lichtenstein und der Schweiz löschen – nicht aber etwa in der Domain google.com. Der Konzern rechnet damit, dass es strittige Fälle geben wird, die vor Gericht landen werden.

 

Originalbeitrag:

http://www.taz.de/Recht-auf-Vergessen-bei-Google


 
 
 

Gehackte E-Mail-Accounts, Malware oder IT-Spionage – angesichts publik gewordener Fälle von Sicherheitslücken sind die Gefahren durch Trojaner und andere digitale Schädlinge mehr denn je in aller Munde. Der Schutz vor Computerkriminellen, die danach trachten, ganze Firmennetze lahmzulegen, steht daher ganz oben auf der Aufgabenliste der Entscheider in den Unternehmen. Zuverlässige Sicherheitssoftware ist dabei ein Muss. Aber welcher Anbieter von Security-Programmen bietet qualitativ hochwertige Produkte? Und welcher Hersteller überzeugt durch eine ausgeprägte Kundenorientierung sowie ein gutes Preis-Leistungs-Verhältnis? Das Deutsche Institut für Service-Qualität ermittelte in einer Befragung im Auftrag des Wirtschaftsmagazins “Markt und Mittelstand” die Zufriedenheit von IT-Entscheidern mit sechs bedeutenden Anbietern für Sicherheitssoftware.

Insgesamt schnitt die Branche sehr gut ab. Rund 81 Prozent der IT-Entscheider lobten die geringe Ausfallquote der Programme und waren der Ansicht, dass das Portfolio des Software-Unternehmens ihre Bedürfnisse abdeckt. Mehr als drei Viertel der Befragten gaben zudem an, dass sich die Mitarbeiter nur selten über die Security-Programme beschweren.

In einem entscheidenden Punkt zeigte sich allerdings Verbesserungspotenzial: “Mit der Schutzfunktion der eingesetzten Software war gut ein Fünftel der Befragten nicht vorbehaltlos zufrieden oder sogar unzufrieden”, kritisiert Markus Hamer, Geschäftsführer des Deutschen Instituts für Service-Qualität. Zudem waren nur knapp 70 Prozent der Teilnehmer der Meinung, dass die Konditionen und das Preis-Leistungs-Verhältnis der Software-Anbieter in Ordnung seien. Updates für die eingesetzte Software stellten die Hersteller laut gut drei Viertel der Befragungsteilnehmer zuverlässig zur Verfügung. Verbesserungswürdig war auch die Beratungsleistung der Software-Firmen: Weniger als 75 Prozent der befragten IT-Entscheider waren mit der Beratung durch die Hersteller vorbehaltlos zufrieden.

Den ersten Rang erreichte Kaspersky. In den Kategorien Leistung, Angebot und Produkte überflügelte dieser Anbieter die Wettbewerber in der Gunst der befragten Kunden. Sehr gut schnitt Kaspersky auch im entscheidenden Punkt ab – der Schutzfunktion der Software. Das exzellente Preis-Leistungs-Verhältnis rundete das hervorragende Resultat ab. Der Zweitplatzierte IBM tat sich nach Meinung der Befragten vor allem durch seine ausgeprägte Kundenorientierung hervor. Die Teilnehmer honorierten jedoch auch die verlässliche Leistung der Software und das sehr gute Angebot. Symantec wurde Dritter. Zu den Stärken dieser Firma zählte das stimmige Gesamtangebot aus sehr guten Konditionen und umfangreichem Portfolio.

Für die Untersuchung zur Zufriedenheit von Unternehmen mit Anbietern von Sicherheitssoftware wurden 150 Entscheider telefonisch zu sechs bedeutenden Herstellern befragt. Mit der Kundenbefragung beauftragte das Deutsche Institut für Service-Qualität den Feldspezialisten Krämer Marktforschung. Im Mittelpunkt der Befragung standen die Meinungen zu den Bereichen Leistung, Angebot, Produkte und Kundenorientierung.

Das Deutsche Institut für Service-Qualität (DISQ) verfolgt das Ziel, die Servicequalität in Deutschland zu verbessern. Das Marktforschungsinstitut mit Sitz in Hamburg führt zu diesem Zweck unabhängige Wettbewerbsanalysen, B2B-Studien und Kundenbefragungen durch. Rund 1.500 geschulte Tester sind in ganz Deutschland im Einsatz. Die Leitung der Forschungsprojekte, bei denen wissenschaftlich anerkannte Methoden und Service-Messverfahren zum Einsatz kommen, obliegt einem Team aus Soziologen, Ökonomen und Psychologen. Dem Kunden liefert das Institut wichtige Anhaltspunkte für seine Kaufentscheidungen. Unternehmen gewinnen wertvolle Informationen für das eigene Qualitätsmanagement. Das Deutsche Institut für Service-Qualität arbeitet im Auftrag von renommierten Print-Medien und TV-Sendern; Studien für Unternehmen gehören nicht zum Leistungsspektrum des DISQ.

Veröffentlichung nur unter Nennung der Quelle: Deutsches Institut für Service-Qualität im Auftrag von "Markt und Mittelstand" 

Pressekontakt:

Markus Hamer Fon: +49 (0)40 / 27 88 91 48 - 11 Mobil: +49 (0)176 / 64 03 21 40 E-Mail: m.hamer@disq.de 
www.disq.de

Ursprünglich veröffentlicht:
www.presseportal.de/pm/

 
 
 

Samsung: Galaxy S4 Mini ist eher ein Galaxy Ace 4


Posted on: April 29th, 2014 by linkhero
 

 

Samsung wird aller Voraussicht nach am 20. Juni 2013 das Galaxy S4 Mini vorstellen. Vorab sind erste technische Daten bekanntgeworden. Demnach hat das Galaxy S4 Mini mit dem Galaxy S4 von der technischen Ausstattung her nicht viel gemeinsam.

Am 20. Juni 2013 wird Samsung in London mindestens ein neues Smartphone vorstellen. Wie das Wall Street Journal mit Verweis auf informierte Kreise berichtet, wird an diesem Tag offiziell unter anderem das Galaxy S4 Mini vorgestellt. Außerdem will Samsung weitere Smartphones zeigen. Neben Geräten mit Android sind auch neue Smartphones mit Microsofts Windows-Phone-Plattform geplant. Wann das Galaxy S4 Mini in den Verkauf gehen wird, ist nicht bekannt. Vor ein paar Tagen hat Samsung das Galaxy S4 Mini alias GT-I9195 kurzzeitig bereits im eigenen Appstore gelistet. Read the rest of this entry »