Linkhero
 
 

Apple-Nutzer sollten vorsichtig sein: Im Internet ist ein neuer Computer-Schädling aufgetaucht, der sich mit ausgeklügelter Technik immer weiter ausbreitet. „WireLurker“ springt über das USB-Kabel sogar vom Mac aufs iPhone und stiehlt dort Daten.

Das US-Unternehmen Palo Alto Networks, Experte für Netzwerksicherheit, warnt vor einer „neuen Ära der OS X- und iOS-Malware“. Die IT-Spezialisten haben nach eigenen Angaben sechs Monate lang eine Schadsoftware namens „WireLurker“ erforscht, der wohl im Verborgenen bereits Hundertausende Apple-Geräte befallen hat. Die Malware attackiere sowohl Macs als auch mobile Geräte wie iPads und iPhones auf teilweise innovativen Wegen.

Momentan lasse sich die Reichweite von „WireLurker“ noch regional einschränken: Betroffen sind demnach vor allem Kunden des chinesischen App-Stores „Maiyadi“. Dort seien fast 500 downloadbare Anwendungen von dem Schädling befallen und würden so auf die Geräte kommen. Die entsprechenden Anwendungen seien bereits rund 356.000 Mal auf OS X-Rechner heruntergeladen worden, eine entsprechende große Zahl von Nutzern sei also infiziert oder gefährdet.

Über das USB-Kabel aufs iPhone

Neu sei an der Malware vor allem, dass sie auch mobile Geräte ohne Jailbreak befallen kann. „WireLurker“ erkennt nämlich demnach, wenn der Computer über ein USB-Kabel mit einem iPhone oder iPad verbunden wird und installiert sich unbemerkt auf dem mobilen Gerät – daher stamme der Name „Kabel-Schleicher“. Darüber hinaus habe der Schädling diverse Möglichkeiten sich zu verstecken und sich selbst zu verschlüsseln, um Gegenmaßnahmen zu entgehen.

Die Funktion von „WireLurker“ ist auch für Palo Alto Networks noch unklar. Der Schädling könne eine Reihe von Daten stehlen und befinde sich in „aktiver Weiterentwicklung“: Er erhalte regelmäßige Updates von einem Server. Zur Abwehr empfiehlt das IT-Sicherheitsunternehmen eine Reihe von Maßnahmen, wie aktuelle Virenscanner, betont aber auch, man solle seine mobilen Geräte nicht mit unsicheren Rechnern verbinden, da sich „WireLurker“ so weiter verbreiten kann.

 

Homepage besuchen:

www.focus.de


 
 
 

Youtube Music Key: Neuer Abo-Dienst nun gestartet


Posted on: November 17th, 2014 by linkhero
 

Google hat bei Youtube den Startschuss für einen neuen kostenpflichtigen Musikdienst gegeben: Youtube Music Key.

Youtube bietet nun einen kostenpflichtigen, abobasierten Musik-Dienst an. Youtube Music Key ist in einer Beta-Version gestartet. Für eine monatliche Abo-Gebühr dürfen die Nutzer Musik-Videos ohne jegliche Werbung anschauen und anhören. Die Inhalte können auch heruntergeladen und offline genutzt werden.

Zum Beta-Start ist eine Einladung zur Nutzung von Youtube Music Key erforderlich.Während der Start-Phase kostet das Monatsabo 7,99 US-Dollar. Später erhöht sich die Abo-Gebühr auf 9,99 US-Dollar im Monat. Der höhere Preis gilt dann aber nur für die neuen Nutzer, denn wer mit 7,99 US-Dollar/Monat einsteigt, zahlt auch in Zukunft diesen Preis.

Google versüßt den Abschluss des Youtube-Abo mit einer attraktiven Zugabe. Wer sich für ein Abo für Youtube Music Key entscheidet, der erhält auch das Abo für Google Play Music ohne Aufpreis. Die Google-Play-Music-App soll außerdem in Kürze in einer neuen Version ausgeliefert werden, die einen Bereich für offizielle Musik-Videos auf Youtube enthält.

Die schlechte Nachricht für deutsche Musik-Liebhaber: Youtube Music Key ist vorerst nur in den USA, Großbritannien, Spanien, Portugal, Italien und Finnland verfügbar. Weitere Länder kommen erst nach und nach hinzu.

Youtube baut kostenloses Musik-Angebot aus

Youtube Music Key ist nur ein Zusatzangebot von Youtube. Es ist auch weiterhin möglich, auf Youtube Musikvideos zu suchen und anzuschauen. Letzteres aber natürlich mit Werbung. Youtube baut das kostenlose Musik-Angebot auf Youtube sogar aus. Auf der Startseite von Youtube findet sich nun neben dem Bereich “Empfohlene Videos” (obere Tab-Navigation) auch der neue Bereich “Musik”.  Diese Neuerung ist ab sofort auch für deutsche Nutzer verfügbar.

 

Artikel-Quelle:

www.pcwelt.de


 
 
 

In manchen Bereichen kann man einen PC mit einem Auto vergleichen. Für alle Autobesitzer ist es eigentlich selbstverständlich, dass das Auto gelegentlich gepflegt oder repariert werden muss. Niemand hinterfragt auch die Notwendigkeit, dass bei einem Auto regelmäßige Inspektionen durchgeführt werden, die dann auch entsprechendes Geld kosten. Was viele Computernutzer nicht verstehen ist, dass auch ein Windows PC oder Laptop Pflege und Wartung benötigt. Ähnlich wie eine Kfz-Werkstätte gibt es einen PC-Notdienst oder Dienstleistern, die einen Computerservice bzw. PC-Hilfe anbieten. Windows hat die unangenehme Eigenschaft, sich, je mehr man den Computer nutzt, überflüssigen Müll voll zuladen, der den Rechner immer langsamer macht. Noch weit schlimmer ist allerdings, was man sich alles im Internet sozusagen holen kann und damit den Rechner teilweise sogar unbrauchbar macht. Viele Nutzer denken aber, ein Computer würde keinen Computerservice benötigen. Sie wundern sich, dass der Start des PCs und auch das Arbeiten mit Programmen immer langsamer wird oder fragen sich, was denn da genau so viel Speicherplatz belegt. Oder was das eigentlich für Programme sind, die bei jedem Start des PC’s mitstarten und in der Taskleiste zu sehen sind. Da man als normaler Nutzer hier oft überfordert ist, braucht man einfach einen PC Service oder Laptop Service bzw. Notebook Service. Ein EDV Service kann die Schwachstellen des Systems erkennen und beheben und überflüssige Daten sowie Software entfernen.

Für die Produktivität am PC, der ja mittlerweile wirklich in allen Branchen unersetzlich ist, sollte man einmal im Jahr eine Inspektion von einem PC Service oder Computerservice durchführen lassen. Ähnlich wie eine Inspektion beim Auto, deren Sinn ja auch von den meisten Autofahrern nicht bestritten wird. Als Faustformel kann man sagen, dass jeder Windows-PC, der täglich intensiv genutzt wird, nach 1-2 Jahren definitiv langsamer geworden ist als zu Beginn. In den meisten Fällen lässt sich so ein System von einem kundigen EDV Dienstleister, der als Anbieter eines Computerservice zu Ihnen nach Hause kommt, wieder beschleunigen. Denken Sie daran, wenn Sie sich wieder über die zähe Verarbeitung oder langsames Reagieren Ihres Rechners aufregen, in vielen Fällen kann mit einer Pflege des PC’s durch einen Computer Service oder PC Service die ursprüngliche Geschwindigkeit des PC’s wiederhergestellt werden.


 
 
 

Reparatur des Helferleins – wenn das Smartphone nicht mehr geht


Posted on: November 12th, 2014 by linkhero
 

Ohne unsere iPhone Samsung Galaxy, HTC oder Windows Phone können wir uns gar keinen Alltag mehr vorstellen. All diese Smartphones und auch die Tablet-PC’s werden sehr häufig genutzt und sind praktisch den ganzen Tag im Einsatz. Die Displays müssen eine Menge aushalten. Da wird gewischt und getippt, fotografiert und Videos geguckt. Aufgrund der Größe dieser Geräte passiert es einfach öfter, dass sie einem aus der Hand und schönen oder vom Tisch gewischt werden. Und dann entdeckt man auch einen gravierenden Nachteil der heutigen Smartphones und ähnliche Geräte. Obwohl eigentlich wahnsinnig teuer, sind die Smartphones relativ empfindlich. Gerade das Display eines iPhones oder Samsung Smartphones kann sehr schnell reißen bzw. brechen und auch der Touchscreen fällt gerne einmal aus. Doch wenigstens haben die Hersteller wie Apple, Samsung, HTC oder BlackBerry daran gedacht, einzelne Bauteile austauschen zu können. Eine iPhone Reparatur bzw. der Austausch des Displays bei einem iPhone oder der Displaytausch bei einem Samsung Galaxy ist zwar nicht ganz billig, aber immer noch günstiger als ein komplett neues Smartphone zu kaufen. Häufig geht zwar das Display beim iPhone oder der Touchscreen vom iPhone oder vom Samsung Handy oder auch von einem iPad bzw. iPad kaputt, aber auch andere Teile kann man tauschen. Es kann passieren, dass der Strom- und USB-Anschluss nicht mehr funktioniert oder aber auch die physikalischen Knöpfe an der Seite der Geräte. Sowohl für das iPhone, iPod, iPad, Samsung Smartphones, HTC Smartphones als auch Windows Phones gibt es diese keine einzeln und können von einem Fachmann ausgetauscht werden.

In diesem Markt für iPhone Reparatur und iPhone Displayreparatur haben sich in den Städten viele lokale Läden etabliert, die außer iPhones auch Smartphones anderer Hersteller fachmännisch reparieren können. Die Preise für den Austausch eines Displays eines iPhones bewegen sich inklusive Material zwischen 100 € und 200 €. Es kann aber auch teurer werden, für einen Sony Smartphone kostet der Displayaustausch 210 €. Dies ist nur als grobe Orientierung, man kann aber sagen für die gängigen Smartphones wie iPhone, Samsung Galaxy und andere Apple Produkte dürfte ein Displayaustausch nicht mehr als 250 € kosten.

 

Also wenn Ihr tägliches Helferlein tatsächlich mal ausfallen sollte, fragen sie erst in einem solchen Laden, ob es sich noch lohnt, das beschädigte Teile auszutauschen. Viele Werkstätten haben die Ersatzteile für die gängigsten Modelle vor Ort und können innerhalb weniger Stunden das geliebte Smartphone wieder in Gang setzen.


 
 
 

Suchmaschinenoptimierung im Wandel


Posted on: November 9th, 2014 by admin
 

Die Dienstleistung SEO oder auf Deutsch Suchmaschinenoptimierung ist ja schon seit etlichen Jahren eine eigene Branche, die viele neue Agenturen und damit auch Arbeitsplätze geschaffen hat. In den ersten Jahren ab ca. 2005 war es noch im Vergleich zu heute wesentlich einfacher, eine Webseite bei oft eingegebenen Suchbegriffen in die Top 10 bei Google zu bringen. Google hatte damals längst nicht so viele Regeln für ein gutes Ranking aufgestellt, außerdem war die Konkurrenz viel kleiner. Heute sieht das ganz anders aus. Viele Selbständige und kleine Agenturen mussten nach den diversen Panda und Penguin Updates leidvoll erfahren, dass ihre bisherige Strategie nicht mehr zum Erfolg führt. Gerade kleinere Kunden stürzten mit ihrer Website aus den Top Suchergebnissen, obwohl es kein übertriebenes Linkbuildung (Linkaufbau) gab und die Seiten sauber programmiert waren. Dazu kam aber noch ein andere Faktor. Das Internet konnte irgendwann niemand mehr ignorieren und die meisten potentiellen Kunden im Internet kommen nun mal über die Suchmaschinen und da vor allem von Google. Also wurde die Konkurrenz immer größer und die großen Player aus dem Handel nahmen und nehmen viel mehr Geld in die Hand für die Suchmaschinenoptimierung. Man sieht das ziemlich gut gerade bei Suchen bei Google nach allen möglichen Shopping-Produkten und natürlich bei den ganz großen Suchbegriffen in den Branchen Kfz, Versicherung, Finanzierung, Urlaub und Reisen, sowie Gesundheit. In den meisten Fällen sind bei den besten Suchbegriffen fast nur große Shoppingsportale, Vergleichsportale und ähnliche Wettbewerber auf der ersten Suchergebnisseite zu finden. Viele Shops mussten sich damit abfinden, dass sie keine Chance haben, mit Suchmaschinenoptimierung wirklich bei Google nach vorne zu kommen. Dafür reicht bei diesen kleinen Shops das Budget einfach nicht aus. Und eine kleine Webfirma, die in einer Nische Produkte oder Dienstleistungen verkaufen möchte, hat keine Manpower, um eine Suchmaschinenoptimierung selbst durchzuführen, sozusagen inhouse. Ich kann hier keine konkreten Zahlen nennen, aber der finanzielle Aufwand, den die großen Portale betreiben, um bei Google auf der ersten Suchergebnisseite zu stehen, ist immens. Letzten Endes ist es ja eigentlich ein Werbeetat, schließlich ist SEO oder Suchmaschinenoptimierung eine Maßnahme, um Kunden zu gewinnen. Aber man muss nicht komplett vor den Konzernen kapitulieren. Heutzutage ist es fast schon überlebensnotwendig, sich auf kleine, aber feine Nischen zu beschränken. Lieber wesentlich weniger Produkte liebevoll präsentieren, mit selbst geschriebenen Texten beschreiben und möglicherweise sogar eigene Fotos zu produzieren, als tausendfach verwendete Herstellerbeschreibungen auf tausenden von Unterseiten zu platzieren, die kein Mensch findet. Viele Shopbetreiber haben aber auch in Sachen Google aufgegeben und verkaufen einen nennenswerten Anteil mittlerweile bei Amazon. Für viele ist es aber nicht das, was sie eigentlich ursprünglich mit ihrem Shop wollten.
Ich weiß, das klingt alles ein wenig sehr deprimierend, trotz alledem sollten Sie sich mal an eine professionelle Suchmaschinen Agentur wenden (Beispiel: Berliner SEO), um mal einen Marktüberblick zu bekommen und die eigenen Chancen analysieren zu lassen. Im besten Fall bekommt man gute Tipps, auf welche Produkte man sich konzentrieren soll, und in welchen Bereichen es absolut keinen Sinn macht, Suchmaschinenoptimierung zu betreiben.


 
 
 

Recht auf Vergessen bei Google: Fast jeder zweite Antrag bewilligt


Posted on: November 7th, 2014 by linkhero
 

Recht auf Vergessen bei Google

In vier Monaten gab es europaweit knapp 145.000 Anträge zur Löschung von Suchergebnissen. In knapp 42 Prozent der Fälle folgte Google dem Wunsch der Nutzer.


Den aktuellen Zahlen zufolge wurde die Löschung von insgesamt nahezu 498.000 Links aus den Suchergebnissen beantragt. Bei knapp 42 Prozent davon sei dem Wunsch der Nutzer entsprochen worden. In Deutschland ging es bisher um rund 89.000 Internet-Links. Hier liegt die Lösch-Quote mit 53 Prozent über dem europäischen Durchschnitt.
BERLIN dpa | Google hat in rund vier Monaten fast 145.000 Anträge von Europäern zur Löschung von Suchergebnissen aus ihrer Vergangenheit bekommen. Aus Deutschland kamen knapp 25.000 davon, wie aus den am Freitag veröffentlichten Zahlen hervorgeht. Der Europäische Gerichtshof (EuGH) hatte im Mai entschieden, dass Europas Bürger Google dazu verpflichten können, Links zu unangenehmen Dingen aus ihrer Vergangenheit aus dem Netz verschwinden zu lassen. Google schaltete Ende Mai eine Website frei, auf der solche Anträge gestellt werden können.

Die Anträge verteilen sich über viele verschiedene Websites. Der am häufigsten betroffene Anbieter ist demnach Facebook mit 3.332 aus den Suchergebnissen entfernten Links.

Die Informationen selbst müssen von den Urhebern nicht entfernt werden. Nur die Verweise auf die Inhalte tauchen dann nicht mehr in der Google-Suche auf. Es geht um Informationen, die nicht mehr relevant sind oder das Recht auf Privatsphäre verletzen. Vor einem Monat hatte Google noch von rund 120.000 Löschanträgen gesprochen.

 

Erstmals veröffentlicht:

http://www.taz.de/Recht-auf-Vergessen-bei-Google/!147500


 
 
 

Test: AVM Fritz!Box 3490 (WLAN-ac-Router)


Posted on: Oktober 30th, 2014 by linkhero
 

AVM Fritz!Box 3490

  • Klasse Ausstattung
  • Insgesamt gute WLAN-Performance
  • Niedriger Stromverbrauch
  • Schwache WLAN-ac-Leistung mit Broadcom-Gegenstelle
  • Bestenlisten Platzierung:
    Rang 9 / 43
  • Gesamtwertung:
    gut (83,0 %)
  • gut

    Oktober 2014

    AVM Fritz!Box 3490

    Unabhängige Tests seit 1978

  • Preis-Leistung: 77%
  • Ausstattung: 93%
  • Performance: 77.4%
  • Funktionalität: 81%
  • Installation & Konfiguration: 76%
  •  
  • (Testzeitpunkt: 10.10.2014)

Fazit: Die Fritz!Box 3490 ist AVMs neuer ac-Router und gefällt im Test mit guter WLAN-Performance, überragender Ausstattung und einer vorbildlichen Bedienung. Nur auf die Telefonanlage und den DECT-Teil verzichtet dieses günstige Fritz!Box-Modell.

 

Der maximale Datendurchsatz der 160 Euro günstigen Fritz!Box 3490 liegt im Test bei starken 551 MBit pro Sekunde. Beim Funken unter praxisnahen, realen Wohn-Bedingungen zeigt der AVM-Router dann aber je nach Gegenstelle ein sehr durchwachsenes Bild: Datenraten zwischen 21 MBit und 313 MBit pro Sekunde haben wir gemessen. Vor allem mit der Gegenstelle mit Broadcom-Chipsatz kommt die Fritz!Box nicht sonderlich gut klar, mit der Intel-Gegenstelle erzielt sie eine deutlich bessere Performance. In Ordnung, aber nicht überragend: 123 MBit/s messen wir mit einer WLAN-n Gegenstelle im 2,4 GHz-Band. Dafür ist der Stromverbrauch des Routers auch unter Last mit rund 10 Watt angenehm niedrig.

AVM Fritz!Box 3490: Klasse Ausstattung


Wie schon erwähnt, verzichtet die Fritz!Box 3490 im Gegensatz zum AVM-Topmodell 7490 auf die Telefonanlage und den DECT-Mobiltelefon-Teil. Ansonsten ist die Ausstattung spitze: es finden sich ein (V)DSL-Modem, vier Gigabit-LAN-Ports und zwei USB-3.0-Schnittstellen, die Sie zum Stromsparen aber auch im USB-2.0-Modus betreiben können – hierüber finden externe Speichermedien oder ein Drucker den Weg in Ihr Netzwerk. Am Gehäuse der Fritz!Box 3490 sind außerdem Schalter zum Ein- und Ausschalten des WLAN-Moduls und eine WPS-Taste zur flotten Anbindung weiterer WLAN-Teilnehmer angebracht – wie auch bei der teureren 7490.

AVM Fritz!Box 3490: Starkes Betriebssystem


Die Fritz!Box 3490 läuft mit dem aktuelle FritzOS 6.20 – die Bedienoberfläche rufen Sie bequem im Webbrowser mit fritz.box auf. Das Web-GUI ist schön übersichtlich aufgebaut und bietet gute Assistenten zum Einrichten aller wichtigen Grundfunktionen des WLAN-Routers, wie beispielsweise für die Einrichtung des Internetzugangs oder der Funkverbindungen. Wenn Sie die Experten-Ansicht wählen, zeigt der Router Ihnen noch deutlich mehr Einstellmöglichkeiten an, so können Sie beispielsweise ein Zeitprofil für das Ein- und Ausschalten des WLANs erstellen.

AVM Fritz!Box 3490: Noch mehr


Für nicht regelmäßige Netzwerknutzer lässt sich ganz einfach ein Gast-WLAN einrichten, inklusive QR-Code zum Ausdrucken. Den scannt der Gast einfach nur mit seinem Smartphone oder Tablet und bekommt so die Netzwerkeinstellungen inklusive Passwort ganz einfach auf sein mobiles Endgerät – und kann sich dann verbinden.

Mithilfe eines externen Speichermediums an einer der beiden USB-Schnittstellen bekommen Sie auch NAS-Funktionalität auf die Fritz!Box 3490. Sie haben über den AVM-Dienst MyFritz! weltweiten Zugang per Internet auf Ihre Daten, ein UPnP AV-Medienserver sorgt für die Verteilung Ihrer Medien im Heimnetz. Das Ganze verwalten Sie über eine eigene Web-Oberfläche, die Sie im Browser über die Eingabe fritz.nas erreichen. Das funktioniert problemlos, wenn auch nicht so performant und bequem wie mit bei einer “echten” Netzwerkfestplatte (NAS) – da fehlt einfach die Rechenpower und der Arbeitsspeicher.

AVM Fritz!Box 3490: Alternative


Der Testsieger Asus DSL-AC68U für rund 180 Euro bietet ebenfalls ein (V)DSL-Modem, vier Gigabit-LAN- und eine USB-3.0-Schnittstelle. Vor allem aber erzielt unsere aktuelle Nummer eins im Ranking eine deutlich stärkere WLAN-Performance – besonders unter Praxisbedingungen. Zwischen 160 und 350 MBit pro Sekunde haben wir hier gemessen. Nur beim Stromverbrauch benötigt der Asus mit rund 16 Watt ein wenig mehr als die Fritz!Box.

Höchster WLAN Standard ac
Maximal theoretische WLAN-ac Geschwindigkeit 1.300 MBit/s
Maximal theoretische WLAN-n Geschwindigkeit 450 MBit/s
Maximaler gemessener Datendurchsatz WLAN 551 MBit/s
Optimale-Bedingung: Durchschnittlicher Download-Datendurchsatz mit Broadcom-Chipsatz 386 MBit/s
Optimale-Bedingung: Durchschnittlicher Download-Datendurchsatz mit Intel-Chipsatz 305 MBit/s
Optimale-Bedingung: Durchschnittlicher Download-Datendurchsatz mit WLAN-n-Broadcom-Chipsatz 137 MBit/s
Praxis-Bedingung: Durchschnittlicher Download-Datendurchsatz mit Broadcom-Chipsatz 21 MBit/s
Praxis-Bedingung: Durchschnittlicher Download-Datendurchsatz mit Intel-Chipsatz 313 MBit/s
Praxis-Bedingung: Durchschnittlicher Download-Datendurchsatz mit WLAN-n-Broadcom-Chipsatz 123 MBit/s
Gigabit-LAN 4 Ports
100-MBit-LAN -
USB-3.0-Anschlüsse 2 Ports
USB-2.0-Anschlüsse -
DSL- Modem Ja
USB-Port für externe Festplatte Ja
Drucker-Server Ja
FTP-Server Ja
Einfacher Zugriff auf Weboberfläche Ja
Zugriff auf externe HHD über das Internet Ja
Unterstützung von Dyn-DNS-Diensten Ja
Telefon: Analog -
Telefon: ISDN -
Telefon: VoIP -
Zusätzliche Apps Fritz!App
Leistungs-Aufnahme im Standby 8 Watt
Leistungs- Aufnahme bei Datentransfer 10 Watt
MBit/s pro Euro 3,44 MBit pro Euro

Link zum Artikel:

www.chip.de


 
 
 

INTEROP, NEW YORK (ots) – SanDisk Corporation (NASDAQ: SNDK), der weltweit führende Anbieter von Flash-Speicherlösungen kündigte heute die Verfügbarkeit der SanDisk® X300 SSD an. Durch modernste X3-Technologie schafft die SanDisk X300 SSD ein überzeugendes Benutzererlebnis mit hoher Leistung. Durch eine robuste Fehlerkorrektur wird zudem die Zuverlässigkeit erhöht. Die neue Client-SSD von SanDisk beinhaltet auch ein verbessertes SSD-Dashboard, wodurch die Festplattenleistung, Sicherheit und die verfügbaren Firmware-Updates überwacht werden können. Damit werden Spitzenleistungen ohne Unterbrechung gewährleistet. Dies ist insbesondere für mobile Mitarbeiter von großer Wichtigkeit.

“Die SanDisk X300 SSD ist unsere erste Festplatte der X-Serie, bei der unsere gestufte Caching-Architektur nCache 2.0 sowie X3, eine drei-Bit-Pro-Zelle-Technologie, zum Einsatz kommt. Dadurch steht eine hochoptimierte und zuverlässige Lösung für CIOs und Mitarbeiter bereit”, erklärte Kevin Conley, Senior Vice President und General Manager Client Storage Solutions bei SanDisk. “Diese Mainstream-Festplatte für Unternehmen bietet nicht nur die Zuverlässigkeit und Leistung, die Firmen heutzutage benötigen, sondern hilft CIOs auch, die Gesamtbetriebskosten zu reduzieren und die Zeit der Investment-Amortisation zu verkürzen.”

Die X300 nutzt die hochmoderne 1Ynm X3 Flashtechnologie von SanDisk und integriert nCache 2.0 Technologie, eine gestufte Caching-Technologie der nächsten Generation, die SLC- und X3/TLC-Flashblöcke kombiniert. So wird die Beständigkeit, Effizienz und Leistung von Arbeitsprozessen im Unternehmen wie etwa Büroanwendungen, Medienerstellung oder Finanzgeschäfte, gesteigert. Um die Zuverlässigkeit der Festplatte zu erhöhen und die End-to-End-Datenintegrität zu maximieren, weist die X300 SDD auch eine robuste Fehlerkorrekturfunktion auf, die für einen zusätzlichen Datenschutz auf die XOR-Recovery-Technologie zurückgreift.

“IT-Umgebungen in Unternehmen stehen vor der Herausforderung, mobilen Mitarbeitern zur Sicherung der Wettbewerbsposition zuverlässigere und leistungsstärkere Geräte zur Verfügung zu stellen”, erklärte Jeff Janukowicz, Research Director for Solid State Drives and Enabling Technologies bei IDC. “Die Kapazität und Kosteneffizienz von SSDs hat sich im Laufe der letzten Jahre erheblich gesteigert. Unternehmen können heute die inhärenten Leistungs- und Zuverlässigkeitsvorteile für ihre Mainstream-Business-Anwender nutzen.”

Benutzerfreundliches SSD-Dashboard sorgt für Spitzenleistungen. Die SanDisk X300 SSD umfasst eine SanDisk SSD-Dashboard-Anwendung, die heruntergeladen werden kann. Sie enthält Verwaltungstools für Festplattenleistung und Zustandsüberwachung, manuelle oder planmäßige TRIM-Befehle, Mitteilungen zu Firmware-Updates und Tipps, wie die Höchstleistung der Festplatte erhalten werden kann. Außerdem beinhaltet das SSD-Dashboard ein breites Spektrum an nützlichen integrierten Anwendungen, einschließlich der Apricorn EZ Gig IV Cloning-Software, mit der eine genaue Kopie einer alten Festplatte in drei einfachen Schritten auf der neuen SanDisk X300 SSD erstellt werden kann. Mit der Apricorn EZ Gig IV Cloning-Software müssen das Betriebssystem, die Programme oder Einstellungen nicht neu eingerichtet werden, wodurch mobile Mitarbeiter nach einem Upgrade oder Absturz ihre Arbeit ganz einfach wieder aufnehmen können.

Die SanDisk X300 SSD ist besonders vielseitig und ist kompatibel mit einer Reihe von Computer-Plattformen. Sie ist ab Oktober in den Größen 128 GB, 256 GB, 512 GB und 1TB* (nur 2,5″) erhältlich. Weitere Informationen zur X300 mit verbessertem SanDisk SSD-Dashboard sowie eine Demo sehen Sie bei SanDisk am Stand 242 auf der Interop New York im Jacob Javits Convention Center oder unter http://www.sandisk.com/products/ssd/sata/x300/.

Über SanDisk

SanDisk Corporation (NASDAQ: SNDK), ein Fortune 500 und S&P 500 Unternehmen, ist ein weltweit führender Anbieter von Flash-Speicherlösungen. Seit mehr als 25 Jahren ist SanDisk damit befasst, die Möglichkeiten der Speicherung zu erweitern und bietet zuverlässige sowie innovative Produkte, welche die Elektronikindustrie verändert haben. Heute bilden die hochwertigen und hochmodernen Lösungen von SanDisk das Kernstück vieler der größten Datenzentren weltweit und sind in modernen Smartphones, Tablets und PCs integriert. SanDisk-Konsumgüter sind in Hunderttausenden Läden weltweit erhältlich. Weitere Informationen finden Sie unterwww.sandisk.com.

Über Interop®

Interop® ist eine führende unabhängige Serie von Technologiekonferenzen und Ausstellungen, die die weltweite IT-Community informieren und inspirieren soll. Interop® ist Teil der globalen Markenfamilie von UBM Tech und ist eine treibende Kraft bei der Einführung von Technologien und vermittelt IT-Verantwortlichen und Unternehmensentscheidern das nötige Fachwissen und wertvolle Einblicke zur Erzielung geschäftlichen Erfolgs. Durch umfangreiche Schulungsprogramme, Workshops, praktische Demos und Live-Technologie-Implementierungen im einzigartigen InteropNet-Programm bietet Interop ein Forum für die leistungsstärksten Innovationen und Lösungen der Industrie. Interop Las Vegas findet als Leitveranstaltung jährlich im Frühjahr statt, gefolgt von der Interop New York im Herbst. UBM Tech und Partner organisieren zudem über das Jahr verteilt hochkarätige internationale Veranstaltungen in Indien, London und Tokio. Weitere Informationen zu diesen Veranstaltungen finden Sie unter www.interop.com. *1 GB = 1.000.000.000 Bytes. Eigentliche Benutzerkapazität geringer.

© 2014 SanDisk Corporation. Alle Rechte vorbehalten. SanDisk ist eine Marke der SanDisk Corporation, eingetragen in den USA und anderen Ländern. nCache ist eine Marke der SanDisk Corporation. Alle anderen hierin erwähnten Markenbezeichnungen dienen ausschließlich der Identifikation und können Marken ihrer jeweiligen Inhaber sein.

Diese Pressemeldung enthält zukunftsbezogene Aussagen, einschließlich Erwartungen in Bezug auf Einführungen von Technologien, Produkten und Dienstleistungen, Technologie- und Produktkompetenzen, Kosten und Leistung sowie Märkte, die auf unseren derzeitigen Erwartungen basieren und zahlreiche Risiken und Unsicherheiten einschließen, die zu einer Ungenauigkeit dieser zukunftsbezogenen Aussagen führen können. Die Risiken, die zu einer Ungenauigkeit dieser zukunftsbezogenen Aussagen führen können, beinhalten unter anderem: die Marktnachfrage nach unseren Produkten oder Dienstleistungen könnte langsamer wachsen als wir erwarten oder unsere Produkte oder Dienstleistungen stehen eventuell nicht in den von uns erwarteten Kapazitäten zur Verfügung, erbringen nicht die erwartete Leistung, bringen nicht die erwarteten Vorteile mit sich, oder bergen andere Risiken, welche in der jeweils gültigen Fassung unserer bei der Securities and Exchange Commission eingereichten Unterlagen und Berichte ausführlich beschrieben werden, darunter, aber nicht beschränkt darauf, in dem entsprechend Formular 10-K einzureichenden, aktuellsten Jahresbericht. Wir beabsichtigen nicht, die Informationen in dieser Pressemeldung zu aktualisieren.

Pressekontakt:

F&H Public Relations GmbH Exclusive German Member of Porter Novelli Brabanter Str. 4 80805 München Fon: +49 (89) 12175-113 Fax: +49 (89) 12175-197 E-Mail: C.Reimann@fundh.de Internet: www.fundh.de Facebook: http://facebook.com/fundh Blog: http://digitalbeat.fundh.de Twitter: http://twitter.com/DigitalBeat_FH 

Originalbeitrag lesen:
http://www.presseportal.de/pm/55313/2853721

 
 
 

Das vom Europäischen Gerichtshof (EuGH) postulierte Recht auf Vergessen, das Menschen gegenüber dem Suchmaschinenbetreiber Google einfordern können sollen, trieb schon einige Blüten. Und im aktuellen Fall versucht ein Mitarbeiter des Axel Springer-Verlags Beiträge im BildBlog unauffindbar zu machen.Das Blog hat sich in den letzten Jahren einen Namen damit gemacht, erst der Bild-Zeitung und ihren Ablegern, später auch anderen Presserzeugnissen auf die Finger zu schauen. Mit penibler Recherche werden hier Unwahrheiten aufgedeckt, fragwürdige Methoden angeprangert und die Verletzung von Persönlichkeitsrechten dokumentiert.

Nun erhielten die Betreiber eine Mitteilung von Google, dass bei bestimmten Suchanfragen Artikel des BildBlogs nicht mehr in den Trefferlisten auftauchen. Solche Veränderungen am Index kommen zustande, wenn Einzelpersonen unter Berufung auf das EuGH-Urteil dafür sorgen wollen, dass bestimmte Informationen nicht mehr in Verbindung mit ihrem Namen in der Suchmaschine zu finden sind.

In dem Schreiben führt Google auch die Links zu den vier betroffenen Beiträgen auf. Hinsichtlich einer konkreten Person taucht hier nur der Name Alexander Blum als Gemeinsamkeit auf. Bei diesem handelt es sich um einen Redakteur der Bild am Sonntag. Die Berichte kritisieren jeweils die Art und Weise, mit der die Redaktion der Boulevard-Zeitung hier entweder versuchte, an Informationen zu kommen, oder diese dann aufbereitete.

In einem Fall ging es beispielsweise darum, dass ein Mann, dem Straftaten vorgeworfen wurden, noch vor einer Verurteilung als Täter hingestellt und mit Fotos identifizierbar gemacht wurde. Ein anderer Beitrag handelte davon, wie versucht wurde, über die Ansprache von Kindern an ein Foto eines verstorbenen Jungen zu kommen. Eine dritte Geschichte entpuppte sich bei weitergehenden Recherchen durch die Polizei komplett als erfunden.

Der nun aufgetretene Fall der Veränderungen am Google-Index ist deshalb bemerkenswert, weil hier nicht eine Privatperson versucht, ein unschönes, aber länger zurückliegendes Ereignis ihrer Biografie in den Hintergrund zu rücken, wie es das EuGH-Urteil eigentlich beabsichtigte. Statt dessen versucht ein Mitarbeiter eines reichweitenstarken Mediums die kritische Auseinandersetzung mit seiner Arbeit aus der Welt zu schaffen.

Original-Quelle:

http://www.winfuture.de


 
 
 

Seit geraumer Zeit werden die Internetnutzer mit hinterhältiger Software genervt. Es kann schon beim Installieren von bestimmter kostenloser Software passieren, dass man sich zwar das gewünschte Programm installiert, aber nebenbei oft noch andere Programme installiert werden, die keinerlei nützliche Funktionen haben, sondern nur den Rechner mehr oder weniger mit Werbung oder angeblichen Systemoptimierungsprogrammen lahmlegen. Dabei handelt sich meistens nicht um Viren oder Trojaner im klassischen Sinn, es geht vielmehr darum, dass die Werbung angeklickt wird oder für die Freischaltung eines unwirksamen Programms Geld verlangt wird. Es gibt aber auch den Fall, dass man sich auf nicht ganz legalen Seiten aufhält und da z.B. aufgefordert wird , den Videoplayer zu aktualisieren oder einen neuen Player zu aktualisieren, um den Film sehen zu können. Tut man dies von einer dieser Seiten, hat man eine ganze Reihe von Problemen. Es geht los, dass die Startseite des Browsers (Internet Explorer, Google Chrome oder Firefox) und der Standardsuchanbieter geändert wird, sowie diverse unnütze und bremsende Browser-Addins und Toolbars installiert sind. Stichworte sind hier Nationzoom, sweetpage, ask toolbar, mysearch, wajam, search-protect, deltasearch und Ähnliches. Unerwünschte Programme sind z.B. My PC-Backup, System Optimizer, regcleaner u. ä. . Zur Entfernung dieser Malware benötigen User, die keine tieferen Computerkenntnisse haben, einen PC Service. Es genügt nicht, einfach die Browser zurückzusetzen oder neu zu installieren. Man muss diverse Reinigungsprogramme und Scanner in einer bestimmten Reihenfolge laufen lassen, um wirklich alles loszuwerden. Ich nenne hier bewusst nicht die Vorgehensweise, weil man ohne PC-Kenntnisse auch mehr Schaden anrichten kann, schlimmstenfalls startet der Rechner gar nicht mehr. Und dann ist umso mehr ein Fachmann von einem PC Notdienst gefragt.

Im Internet gibt es zu dieser Problematik auch den Tipp, das Betriebssystem neu aufzuspielen, was oft einen sehr großen Aufwand bedeutet. Meiner Erfahrung nach ist das in den meisten Fällen nicht nötig, man kann in der Regel den PC vollständig bereinigen. Allerdings gibt es den Fall, dass man diese Malware so gut es geht, ignoriert und mit dem Rechner einfach weiter arbeitet. Dann kann es passieren, dass im Hintergrund weitere Programme heruntergeladen und installiert werden, die dann mitunter wirklich nur durch eine Neuinstallation von Windows entfernt werden können. Da bei einer Neuinstallation von Windows alle Daten verloren gehen, muss dafür oft ein Computerservice beauftragt werden, der die Daten ohne Malware sichern kann.
Tipp: Lassen Sie sich nicht verführen, irgendwelche Updates von einer Webseite herunterzuladen. Wichtige Updates wie z.B. Windows Updates oder Flash-Player Updates meldet immer das Betriebssystem selbst, ohne einen Browser geöffnet zu haben. Falls Sie ein kostenloses Programm installieren möchten, sollten Sie das von einer seriösen Quelle herunterladen, am besten von einer de-Webseite. Sollte es Sie doch mal erwischt haben, wenden Sie sich an einen Computerservice.


 
 
 

Auch Symantec denkt angeblich über Aufspaltung nach


Posted on: Oktober 15th, 2014 by linkhero
 

Nach Ebay und Hewlett-Packard erwägt nun offenbar auch Symantec eine Aufspaltung in zwei eigenständige Unternehmen. Wie Bloomberg unter Berufung auf informierte Quellen berichtet, sind die Überlegungen in diese Richtung bereits weit fortgeschritten. Eins der neuen Unternehmen werde sich um das Geschäft mit Sicherheitssoftware kümmern, während sich das andere auf das Storage-Geschäft konzentriere.

 

Bloombergs Quellen zufolge sollen die Pläne schon in wenigen Wochen offiziell bekannt gegeben werden. Weder auf Nachfrage von Bloomberg selbst noch auf die von News.com wollte Symantec den Bericht kommentieren.

Eine Aufteilung in zwei Unternehmen wäre bei dem Sicherheitsspezialisten aus dem kalifornischen Mountain View durchaus denkbar. Er würde damit dem Vorbild anderer großer Technikfirmen folgen. Ebay hatte vergangene Woche angekündigt, seine Bezahldiensttochter PayPal 2015 auszugliedern. Und Hewlett-Packard bestätigte am Montag, sich in zwei separate Unternehmen aufzuspalten, von denen das eine das Enterprise-Geschäft und das andere das PC- sowie Druckergeschäft übernimmt.

Symantec soll schon in der Vergangenheit über eine Aufspaltung nachgedacht haben, wie Bloomberg anmerkt. Der vor zwei Wochen zum dauerhaften CEO berufene Michael Brown sei ein Befürworter dieser Pläne – anders als sein im März gefeuerter Vorgänger Steve Bennett. Durch die Aufteilung in zwei kleinere Unternehmen, könnten diese auch zu Übernahmezielen von Konzernen wie HP oder EMC werden, die möglicherweise an der Security- oder der Storage-Geschäftseinheit interessiert sind.

Mit seinen Norton-Produkten ist Symantec zu einem der bekanntesten Sicherheitsanbieter aufgestiegen. Doch der Kampf gegen Viren und Cyberbedrohungen ist mit der Zeit komplizierter geworden, da Hacker immer fortschrittlichere Infiltrationsmethoden entwickeln. Die jüngsten Angriffe auf große US-Unternehmen wie Target, Ebay und Home Depot zeigen, dass herkömmliche Schutzmethoden, selbst wenn sie fachgerecht implementiert sind, nicht mehr ausreichen.

In einem Wall-Street-Journal-Artikel vom 4. Mai bezeichnete Symantecs Senior Vice President für Information Security, Brian Dye, Antivirenlösungen als “zum Scheitern verurteilt“. Antivirus-Techniken für Endgeräte seien kein “Verkaufsschlager” mehr, sagte er. Stattdessen hat sich Symantec inzwischen darauf verlegt, eine breitere Palette Sicherheitsprodukte anzubieten, die Unternehmen besser vor Cyberattacken schützen sollen. Im August kündigte es an, seine Norton-Reihe für Heimanwender auf ein Produkt zu reduzieren. Das abobasierte Norton Security ist seit rund zwei Wochen verfügbar und ersetzt nicht nur Norton Antivirus, sondern auch Norton Internet Security, Norton 360, Norton 360 Multi-Device und Norton 360 Premier Edition.

Häufige Führungswechsel und sinkende Nachfrage belasteten Symantecs Geschäft in den letzten Jahren. Der Aktienkurs ging im vergangenen Jahr um 1,7 Prozent zurück. Durch Kosteneinsparungen konnte der Sicherheitsanbieter seinen Umsatz zuletzt jedoch wieder steigern, um zwei Prozent im ersten Quartal des Fiskaljahres 2015.

[mit Material von Lance Whitney, News.com]

 

Erstmals veröffentlicht:

http://www.zdnet.de


 
 
 

Nach wochenlangem juristischen Gerangel war es am Donnerstagabend dann doch so weit: Seitdem sind in Österreich die ersten Netzsperren aktiv. Aufgrund einer einstweiligen Verfügung wurden die Seiten kinox.to und movie4k bei den meisten Providern blockiert. Wer diese auf ihren ursprünglichen Adressen ansurfen will, bekommt statt dem erwarteten Inhalt nur mehr eine simple Fehlermeldung.

Hallo Frau Streisand

Ob sich die Rechteverwertungsindustrie mit diesem Schritt einen wirklichen Gefallen getan hat, steht freilich auf einem anderen Blatt. Immerhin hat seitdem der Streisand-Effekt seine volle Wirkung entfaltet. Selbst wer zuvor von den beiden Seiten noch nichts gehört hatte, ist mittlerweile bestens über diese informiert – und an alternative Adressen, über die beiden Services zu erreichen sind, mangelt es ebenfalls nicht. Doch auch sonst dürften die Sperrmaßnahmen kaum eine – oder zumindest keine negative – Auswirkung auf die Intensivität der kinox.to und movie4k-Nutzung aus Österreich haben. Lassen sich die nun errichteten Hürden doch äußerst einfach umgehen.

Schwache Sperre

Dies liegt daran, dass die Sperre lediglich über eine Veränderung der Domain-Name-System-(DNS)-Datenbank bei den Providern implementiert ist. Diese ist dazu, die die IP-Adresse eines Servers (beispielsweise: 194.116.243.20) – also jene Zahlenkombination über die er anderen Rechnern bekannt ist – einer für Menschen einfach merkbar Adresse wie derStandard.at zuzuweisen. Nun haben also die österreichischen Provider schlicht die Einträge für die von den Rechteverwertern beanstandeten Domainname verändert.

DNS-Alternativen

Und genau dieser Umstand macht es den Nutzern nun so einfach die aktuellen Netzsperren auszutricksen. Es ist nämlich keineswegs notwendig, die DNS-Einträge des eigenen Anbieters zu verwenden. Wer schon bislang alternative DNS-Server verwendete, merkte von der Aktivierung der Netzsperren in Österreich exakt: Nichts. Und solche öffentlich verfügbare DNS gibt es zuhauf, so hat etwa Google seit einigen Jahren eigene DNS im Angebot. Und neben speziellen Services wie DNS.Watch oder OpenDNS hat sogar der deutsche Chaos Computer Club ein entsprechendes Angebot. In all diesen sind die alten Zuweisungen für kinox.to und movie4k weiterhin aktiv.

Einfach

Die Aktivierung alternativer DNS ist dabei bei allen gängigen Betriebssystemen ohne sonderlichen Aufwand in den Netzwerkeinstellungen vorzunehmen. Anleitungen gibt es dafür im Internet zuhauf. Wer sich ersparen will, jeden einzelnen Rechner neu zu konfigurieren, kann die alternativen DNS auch gleich am Router aktivieren, dann werden sie automatisch an alle lokalen Rechner und mobilen Geräte weitergereicht.

Ausgetrickst

Zumindest solange bis die Netzsperren in Österreich lediglich über DNS-Manipulationen implementiert ist, ist dieser Ausweg der derzeit wohl komfortabelste. Mit ein paar Minuten Aufwand spüren die Nutzer von den Sperren gar nichts mehr. Die Verwendung alternativer Domains / URLs hat hingegen den Nachteil, dass diese – zumindest soweit die Erfahrung in anderen Ländern zeigt – schon bald ebenfalls gesperrt werden. Und beim direkten Ansurfen von IP-Adressen können andere Probleme auftreten, etwa mit Sicherheitszertifikaten, oder weil eine IP von mehreren Domains genutzt wird, was gerade bei kleineren Angeboten nicht unüblich ist. (apo, derStandard.at, 5.10.2014)

 

Quelle:

http://derstandard.at/2000006429796


 
 
 

Neues “Borderlands” ist total bekloppt, aber gut


Posted on: Oktober 11th, 2014 by linkhero
 

Die “Borderlands”-Reihe war schon immer bekloppt: Hier mischen sich nicht nur Ego-Shooter und Rollenspiel – nein, es trifft auch noch Comic-Grafik auf abgedrehten Humor, der nicht immer Sinn ergeben muss. Dazu kommen Abermillionen von automatisch generierten und entsprechend bizarren Science-Fiction-Schießeisen.

So überrascht es nicht, was die Macher von Gearbox Software gemeinsam mit dem Studio 2K Australia für den neuesten Teil ausheckten. Denn den feuern sie gezielt in die Fünfjahreslücke, die zwischen den ersten beiden Teilen klafft: ein “Pre-Sequel” eben. Obendrein verfrachten sie die Handlung weg von der einstigen Spielwelt, dem Planeten Pandora, hinauf auf dessen Mond Elpis – und auch auf die Raumstation Helios, die über diesem schwebt.

Ach, und die Kerle, die in Teil zwei noch die Bösen waren, die sind nun die Guten – irgendwie jedenfalls. “Wir wollen den Spielern damit zeigen, wie jene Typen in ‘Borderlands 2′ zu dem wurden, was sie sind”, erklärt dazu James Lopez, Spieldesigner von Gearbox. Insbesondere Handsome Jack, der in “Borderlands 2″ den fiesen Alleinherrscher Pandoras mimt, ist hier ein Computernerd und eigentlich feiner Kerl, der anfänglich gute Absichten hat!

Neues Helden-Quartett

Daher schlüpfen Sie in “The Pre-Sequel” allein oder im Koop-Verbund mit drei Freunden auch nicht in die Haut mutiger Abenteurer, sondern der vier Typen, die Jack auf den Thron hieven werden. Die kommen natürlich allesamt mit ihren eigenen Fähigkeiten und Talentbäumen daher: So zückt Gladiatorin Athena einen Energie-Schild, der Feindfeuer aufsaugt und es gesammelt mit doppelter Wucht auf einen Gegner zurückwirft.

Der bärtige Enforcer Wilhelm hat einen starken Robo-Arm und ruft sich eine bewaffnete Flugdrohne zur Unterstützung herbei. Die Sheriff-Dame Lawbringer Nisha hingegen kann kurzzeitig automatisch Gegner ins Visier nehmen und hat zudem eine Peitsche im Gepäck. “Ich denke, wir haben hier einige verdammt coole Ideen gehabt”, sagt Lopez.

Aber am witzigsten ist der kleine und plappernde Roboter Claptrap, die Fragtrap! Er analysiert auf Knopfdruck die Situation auf dem Schlachtfeld: Basierend auf Gegnern und Mitspielern errechnet er, welcher Charakter aus “Borderlands” hier am besten durchkäme, und imitiert kurzzeitig dessen Fähigkeiten – oder wählt schlicht wahllos Boni und Skills. Beispielsweise macht er einen auf Gunzerker, was ihn plötzlich zwei Waffen schwingen lässt. Oder er gibt das “One Shot Wonder”, was das gesamte Magazin aller Waffen in einem Schuss entlädt. Kurz gesagt: Wer Claptrap spielt, weiß nie, was ihn erwartet.

Wie immer, nur anders

Spielerisch hingegen ist vollkommen klar, was auf einen zukommt: volle Kanne “Borderlands”! Hier und da nehmen Sie Missionen an, die Sie kreuz und quer über den Mond scheuchen. Da muss für Jack eine Sendeanlage übernommen, für Lady Spring ein Kinderbuch gefunden oder irgendwo die verschwundene Frau des wirren Myron gerettet werden.

Natürlich mündet all das in herrlich chaotischen Massenschießereien. Sie halten aus voller Büchse drauf, wenn plötzlich die Weltall-Cousins von bekannten Gegnern auf Sie zustürmen: Psychos in Raumanzügen, Zwerge mit Jetpacks auf dem Rücken oder gigantische 200-Kilo-Bad-Ass-Astronauten mit Riesenkanonen. Gut, dass der Spieler neue Tricks draufhat.

Dank niedriger Gravitation springt man nun etwa etliche Meter weit, kann mit einem Satz auf Gebäude hopsen, lässig umhersegeln und währenddessen mit neuen Schießprügel-Varianten wie Gefrierstrahl-Gewehren oder Laser-Schrotflinten Lava-Biester oder gar Raumgleiter unter Beschuss nehmen. Und hat sich direkt unter einem eine Horde von Feindvolk versammelt, saust man auf Tastendruck mit einem Affenzahn hinab und knockt sie allesamt aus. Groundpound nennt sich das!

Tauschgeschäfte

Ganz klar, “Borderlands”-Kenner werden sich sofort zurechtfinden. So ziemlich jede Neuerung passt herrlich ins Konzept und ist dabei vollkommen selbsterklärend. Beispielsweise müssen Sie auf dem Mond zwar auf Sauerstoff achten, der in einer Leiste unterhalb der Lebensleiste verbraucht wird.

Allerdings strömt der überall aus dem Mondboden und lädt sich automatisch in Gebäuden auf. Fahrzeuge? Die gibt’s auch auf dem mit Lava und Eis dekorierten Erdtrabanten – eben in Form von Mondautos oder Schwebe-Motorrädern, die mit dicken Kanonen bestückt sind. Und statt ungeliebte Waffen zu verkaufen, kann Ballerschrott nun auch in einen sogenannten Grinder-Automaten geworfen werden, der daraus eine neue und meist bessere Zufallswumme bastelt. Super!

Warum ist das Gearbox eigentlich nicht früher eingefallen? Mit alldem rütteln die Entwickler zwar nicht am Fundament des Blödel-Action-Shooters, wagen keine allzu heiklen Experimente, aber packen durchaus noch eine Schippe Irrsinn obendrauf. Und zwar eine Schippe, die genug Abwechslung und Frische für freudiges Dauerfeuer verspricht.

Prognose: So mancher hatte hinter “Borderlands – The Pre-Sequel” eine halbherzige Auskopplung vermutet. Doch all die kleinen, aber feinen Ideen, die Entwickler Gearbox und 2k Australia hineinpacken, beweisen schon jetzt das Gegenteil. Kreativ, abgefahren und noch ein Stückchen überdrehter als die Originale kommt der spielerische Lückenfüller beim Probespiel daher.

Vorallem bei Robo Claptrap haben die Macher Kreativität gezeigt. Doch müssen zum Erscheinen auch noch Story, Charaktere und vor allem Abwechslung in den Missionen unter Beweis gestellt werden. Dann dürfte abgefahrenen Baller-Abenden aber nichts mehr im Wege stehen.

Erscheinungstermin: 17. Oktober 2014 für PC, PS3 und Xbox 360.

 

Artikel-Quelle:

http://www.welt.de/spiele/


 
 
 

Die kommende Version von Googles Android-Betriebssystem soll ab der kommenden Version standardmäßig dafür sorgen, dass alle Daten auf dem jeweiligen Gerät verschlüsselt sind. Damit würde die Plattform zu dem Sicherheits-Level aufschließen, das Apple gerade mit iOS 8 eingeführt hat. Die Möglichkeit zur Verschlüsselung sind in Android schon länger vorhanden, konkret seit 2011. Allerdings muss das Feature von den Anwendern erst aktiviert werden, was nur sehr wenige tatsächlich getan haben. In der in Kürze erscheinenden Version Android L werden die Kryptografie-Funktionen dann aber automatisch bei der Einrichtung eines Smartphones oder Tablets aktiviert, so dass die auf dem System gespeicherten Bilder, Videos, Nachrichten und anderen Informationen nur eingesehen werden können, wenn die korrekte Zugangskennung eingegeben wurde.

Sowohl Apple als auch Google setzen bei der Verschlüsselung auf bewährte Verfahren, die auch ausreichend Schutz vor professionellen Angriffen bieten sollen. So betonte nun auch eine Google-Sprecherin, dass das Unternehmen beispielsweise auch Behörden mit einer richterlichen Anordnung nicht weiterhelfen könne, wenn diese Zugang zu einem Mobilgerät haben wollen. Das setzt natürlich voraus, dass der Anwender ein halbwegs starkes Passwort verwendet und die Informationen, die geschützt werden sollen, dann auch nicht in die Cloud synchronisiert.

Mit der Einführung der Standard-Verschlüsselung wollen die Anbieter vor allem auch Vertrauen bei den Nutzern zurückgewinnen. Nachdem im Zuge der Snowden-Veröffentlichungen die Öffentlichkeit zu einem gewissen Grad darauf sensibilisiert wurde, sich gegen Überwachungsmaßnahmen zu schützen, ist die Verfügbarkeit entsprechender Features durchaus zu einem Verkaufsargument geworden.

Bis die Krypto-Features bei Android in voller Breite in der Praxis ankommen, wird es aber wohl deutlich länger dauern als beim Konkurrenten. Denn Apple liefert nicht nur die neuen iPhones mit standardmäßig aktivierter Verschlüsselung aus, sondern bringt diese mit dem aktuellen iOS 8-Update auch schnell auf die meisten älteren Geräte. Durch den fragmentierten Aktualisierungs-Prozess bei Google kann es hingegen Wochen bis Monate dauern, bis auch viele bereits verkaufte Smartphones und Tablets auf Android L aufgerüstet werden.

 

zum Artikel:

www.winfuture.de


 
 
 

Analyse – Windows XP ist kaum totzukriegen


Posted on: Oktober 2nd, 2014 by linkhero
 

Im Jahr 2001 veröffentlichte Microsoft Windows XP. Das Betriebssystem erwies sich als gelungen und erlangte hohe Beliebtheit unter den Nutzern und einen entsprechend dominanten Marktanteil. Doch der Erfolg hat Schattenseiten, die Microsoft 13 Jahre später zu spüren bekommt.

Der unmittelbare Nachfolger von XP, das 2006 erschienene Vista, floppte. Erst 2009 überzeugte man die User wieder mit Windows 7, das langsam zum neuen Platzhirschen aufstieg. Eine Version später – mittlerweile ist Windows 8.1 am Markt – hat Windows XP weiterhin einen hohen Marktanteil. Und laut den neuesten Zahlen von Netmarketshare sinkt er nur noch sehr langsam.

23,89 Prozent

Knapp 30 Prozent aller User waren demnach Anfang des Jahres noch mit einem XP-System im Netz unterwegs. Im April stellte Microsoft den Support für das System – und damit auch die Lieferung von Sicherheitsupdates – vollständig ein. Lediglich die eigene Antivirus-Software “Security Essentials” wird auf XP noch bis Mitte 2015 mit neuen Signaturen versorgt.

Im August nahm der Marktanteil nur noch um weniger als einen Prozent und liegt nun bei 23,89 Prozent, womit XP mit klarem Abstand zu Windows 8 und 8.1 (insgesamt 13,37 Prozent) die zweithäufigst genutzte Windows-Ausgabe ist. Geht es in diesem Tempo weiter, könnte es hypothetisch noch über zwei Jahre dauern, bis der Oldie vom Markt verschwunden ist.

Windows 8 zuwenig attraktiv für Umstieg

Die Ursachen sind mannigfalitg. Eine ist die von Anfang an schleppende Verbreitung von Windows 8. Mit einem massiven Interface-Umbau wollte Microsoft eine “Touch First”-Strategie forcieren, verärgerte damit aber Nutzer “klassischer” PCs. Der Aufbruch in die mobile Welt mit den hauseigenen Surface-Convertibles misslang in den ersten Anläufen, für die dritte Generation stehen die Vorzeichen besser.

Die Windows-8-Umsetzung für Geräte auf Basis von ARM-Hardware unter dem Namen Windows RT verblieb ungeliebt und sorgte außerdem für Verwirrung. Hinzu kommt, dass man den Kritikern der forcierten “Metro”-Oberfläche mit Windows 8.1 und dessen großem “Update 1″ nur halbherzig entgegengekommen war.

Auch Windows 7 kommt in die Jahre

Windows 7 ist mit fünf Jahren mittlerweile auch keine aktuelle Plattform mehr, dazu dürfte Windows 9 – in dem bisherigen Berichten zufolge Touch- und Desktop wieder streng getrennt sein sollen – als potenziell attraktive Umstiegsmöglichkeit bald vor der Tür stehen.

Kostenhürde

Neben einem gewissen Mangel an Alternativen ist dabei nicht zu vergessen, dass langjährige XP-Nutzer mit einem Umstieg auf ein aktuelleres System aufgrund gestiegener Anforderungen wohl auch neue Hardware erwerben müssen. Dies schafft eine Kostenhürde, eine derartige Anschaffung will schließlich wohl überlegt sein.

Mobile Wende

Gleichzeitig ermöglichen es immer leistungsstärkere und funktionsreichere Smartphones und Tablets, viele Tätigkeiten vom klobigen Desktop-PC oder Notebook auf wesentlich handlichere Devices auszulagern, was zusätzlich die Notwendigkeit einer Aufrüstung oder eines Neukaufs vermindert.

Das hat auch Microsoft erkannt und – mit einem Auge auf weniger zahlungskräftige Klientel in Schwellenmärkten schielend – die Herstellung günstiger und kleiner Windows-Tablets ermöglicht. Bis sich erweist, ob diese Strategie aufgeht, werden allerdings noch einige Monate ins Land ziehen.

Service Pack 4

Zahlreiche Nutzer werden also noch auf absehbare Zeit mit einem Windows XP-System arbeiten und sich damit einem nicht gerade unerheblichen Sicherheitsrisiko aussetzen. Abhilfe schaffen hier findige Hacker, die auf eigene Faust neue Service Packs für das dreizehn Jahre alte Betriebssystem basteln.

Ein Entwickler mit dem Pseudonym “harkaz” werkt an einem inoffiziellen “Service Pack 4″, dessen dritte Betaversion kürzlich veröffentlicht wurde. Es soll nicht nur alle bisherigen XP-Updates beinhalten, sondern auch eigene Tweaks und Patches mitbringen und jene Registrierungsänderung vornehmen, mit welcher noch bis 2019 jene Updates von Microsofts Servern holt, die eigentlich für die spezialisierte “Point of Sale”-Version von XP gedacht ist, die sich etwa auf Kassensystemen wiederfindet.

Vor dieser “Lebensverlängerung” hat Microsoft bereits gewarnt, da diese Updates bei einem normalen Windows-System möglicherweise nicht alle Sicherheitslecks abdecken und Probleme durch Inkompatibilitäten verursachen können.

Sicherheitsfirmen springen ein

Auch Sicherheitsunternehmen nutzen die Situation. Malwarebytes hat etwa ein Produkt veröffentlicht, das XP-Nutzer auch ohne offizieller Patches vor Gefahren abschirmen soll. Der Support für die Software, so erklärt die Firma gegenüber The Inquirer, soll andauern, so lange Microsoft dies ermöglicht.

Lebensverlängerung gegen Bezahlung

Auch Microsoft selbst springt in die Bresche. Einige Organisationen und größere Unternehmen, wo eine Migration langjährig gewachsener IT-Infrastruktur auf neue Hardware und Systeme langwierig und kostspielig ist, bezahlen den Redmonder Konzern für eine zeitliche Erweiterung des Supports.

Dazu gehört auch das österreichische Bundesheer. Der Umstieg von XP auf Windows 7 war einst für September 2013 geplant, wurde aber schließlich verschoben. Letzten Informationen zufolge soll das Upgrade nun Ende diesen Jahres beginnen und bis April 2015 abgeschlossen sein. Ein Kauf der Supportverlängerung für XP, wie sie auch die deutsche Bundeswehr erworben hat, war zu diesem Zeitpunkt “in Planung”. (Georg Pichler, derStandard.at, 21.09.2014)

 

Adresse der Quelle:

derstandard.at/2000005063188/


 
 
 

Lenovo Tab S8: Android-Tablet mit Bay Trail für 200 Euro


Posted on: September 20th, 2014 by linkhero
 

Lenovo Tab S8

Lenovo hat das Tab S8 vorgestellt. Das 8-Zoll-Tablet basiert auf einem Atom Z3745 mit vier Kernen und nutzt Android Kitkat. Anders als Asus’ Memo Pads löst das Display mit 1.920 x 1.200 Bildpunkten auf.

Das Lenovo Tab S8 ist das erste Android-Intel-Tablet des chinesischen Herstellers – auf früheren Modellen wie dem Miix 2 oder dem Thinkpad 10 ist Windows 8.1 installiert. Das Tab S8 wiegt laut Lenovo leichte 299 Gramm, misst 124 x 210 x 7,9 Millimeter und verfügt über ein 8-Zoll-Touchdisplay.

Das IPS-Panel löst mit 1.920 x 1.200 Pixeln und somit 283 ppi auf (wenngleich Lenovo in der Pressemitteilung von FHD spricht), was für ein Android-Tablet dieser Größe vergleichsweise viel ist – Asus’ Memo Pads haben nur 1.280 x 800 Bildpunkte.

Als System on a Chip verbaut Lenovo Intels Atom Z3745 mit vier Silvermont-Kernen (bis zu 1,86 GHz) und HD Graphics. 2 GByte Arbeitsspeicher und 16 GByte eMMC mit Option auf bis zu 64 GByte runden das Paket ab. Durch den integrierten 4.290-mAh-Akku soll das Tab S8 rund 6,5 Stunden durchhalten.

Die rückwärtige Kamera mit Blende f/2.2 hat 8 Megapixel und die Frontkamera 1,6 Megapixel. Somit sind nur mit der größeren Kamera 1080p-Videos möglich, was für den Preis üblich ist. Lenovo bringt das Tab S8 im vierten Quartal 2014 für 200 Euro in den Handel, dieses Modell bietet Bluetooth 4.0 und WLAN nach n-Standard.

Zusätzlich gibt es eine teurere LTE-Variante mit Intels XMM7160-Funkmodul. Beide Versionen des Tab S8 gibt es in den Farben schwarz, weiß, blau und gelb.

 

Zuerst veröffentlicht auf:

www.golem.de/news/


 
 
 

Der Trend geht weg vom Personal Computer


Posted on: September 19th, 2014 by linkhero
 

Auch im Jahr 2013 sind die Verkäufe von Desktop-PCs und Notebooks zurückgegangen. Die Umsatzzahlen für Tablet-Computer und generell mobile Geräte sind hingegen erneut gestiegen. Die Frage ist, wird der klassische PC bzw. das klassische Notebook langfristig aussterben? Bisher ist immer noch so, dass zum produktiven Arbeiten sich nur ein Desktop-PC oder ein Notebook eignen. Eine virtuelle Tastatur oder auch eine Spracherkennungssoftware ist immer noch nicht so weit, dass sie einen herkömmlichen Computer ersetzen kann. Vom EDV-Service habe ich gehört, dass im letzten Jahr weniger Privatkunden und dafür mehr Firmenkunden die Dienstleistungen in Anspruch genommen haben. Das liegt daran, dass Tablet-Computer und dergleichen für das Surfen und einkaufen im Internet und zum Spielen genutzt werden. Notebooks und Desktop-PCs hingegen sind nach wie vor die Arbeitspferde in den Büros und im Außendienst. Die klassischen PCs werden wahrscheinlich erst dann sterben, wenn es Geräte gibt, die sich zum Beispiel in einer Kombination aus Sprache und Augenkontakt bedienen lassen und eine Tastatur und auch eine Maus gar nicht mehr gebraucht werden. Schon heute werden Autos vorgestellt, in denen man manche Funktionen per Blickkontakt auslösen kann. In ein paar Jahren wird das der Standard werden. Und wer weiß, in 10-20 Jahren könnte es sein, dass man in der Lage ist, einen Chip in das Gehirn einzupflanzen, der die Gedanken in einen Computer übertragen kann. Oder anstatt eines großen Bildschirms und weiterer Hardware setzten sich einfach eine Brille auf, mit der man sämtliche Funktionen ausführen kann. Für Dienstleister für IT-Service bedeutet der ständige Fortschritt auch ständige Weiterbildung. Jedes neue Gerät hat neue Features und Funktionen und die größere Vielfalt an Betriebssystemen wie Android, Windows Mobile oder neue Linux-Derivate fordert einen erhöhten Aufwand an Informationsbeschaffung.  Wir werden sehen, wie sich weiter entwickelt. Wie würde ein Mensch aus dem heutigen Marketingbereich sagen? Es bleibt spannend! Diesen Spruch kann man eigentlich für alles, was die Zukunft betrifft, anwenden, denn das Unbekannte ist eigentlich immer spannend.


 
 
 

Weltweiter Betriebssystem-Markt: Windows 8.1 überholt Windows 8


Posted on: September 18th, 2014 by linkhero
 

Neuen Zahlen zur weltweiten Verbreitung von Betriebssystemen von StatCounter zufolge hat Windows 8.1 im August erstmals Windows 8 überholt. Windows 8.1 liegt mit 7,5 Prozent sogar deutlich vorne: Windows 8 kommt nur noch auf 6 Prozent.

“Nach einer durchwachsenen Reaktion auf Windows 8, vielleicht aufgrund seiner radikal erneuerten Optik, scheint Windows 8.1 User gewinnen zu können”, kommentiert StatCounter-CEO Aodhan Cullen. Betrachtet man nur Deutschland, liegt Windows 8.1 allerdings schon seit April vor Windows 8. In den USA war der Wechsel im Mai erfolgt.

Das StatCounter-Diagramm verzeichnet das langsame Ende von Windows XP (blau) und dien Aufstieg von Windows 8.1 (orange).

Zu bedenken ist auch, dass die als etwas zuverlässiger angesehenen Zahlen von Net Applications einen geringeren Abstand zwischen beiden Betriebssystemen ausweisen. Dort kommt Windows 8.1 auf 7,1 Prozent und Windows 8 auf 6,3 Prozent.

Windows 7 führt weltweit mit jetzt 50,3 Prozent Marktanteil. Gegenüber Juli mit 50,2 Prozent war erneut ein leichter Zuwachs zu verzeichnen. Das vom Support abgeschnittene Windows XP liegt mit 12,9 Prozent weiter auf Rang zwei. An dritter Stelle finden sich Apples Mac-OS-Versionen, die zusammen auf 7,8 Prozent kommen. Die Statistik, die Betriebssysteme für Desktops und Notebooks, Tablets und Konsolen umfasst, enthält zudem auch iOS mit 6,8 Prozent Marktanteil.

Über das 13 Jahre alte Windows XP sagt StatCounter, es “weigert sich zu sterben”. Der Support hatte im April geendet. Damals kam das OS noch auf 27 Prozent Marktanteil.

 

Homepage:

http://www.zdnet.de/88204508


 
 
 

Der PC-Markt erholt sich entgegen der Vorhersagen


Posted on: September 18th, 2014 by linkhero
 

Zugegeben, er ist reichlich abgedroschen, aber hier stimmt der Spruch: Totgesagte leben länger. Ich meine das in Beziehung zum PC-Markt. Sowohl die Verkäufe von Desktop-PC’s als auch die von Laptops haben sich nach einem starken Einbruch in den letzten Jahren jetzt wieder erholt. Ganz überraschend kommt das nicht. Der Rückgang der PC-Verkäufe hing vor allem mit dem großen Erfolg der Tablet-Computer, Smartphones und ipads zusammen. Diese Geräte versprachen letztendlich mehr, als sie halten konnten. Man muss einfach feststellen, dass Smartphones oder Pads/Tablets einfach einen Desktop-PC bzw. Laptop nicht vollwertig ersetzen. Bei der Größe der Displays gibt es schon das erste Problem. Für viele, vor allem ältere Nutzer ist der Bildschirm auf den mobilen Endgeräten schlicht zu klein. Genauso sieht es mit der Speicherkapazität aus. Viel Platz ist auf dem lokalen Speicher der Smartphones und Tablets nicht und eine große Mehrheit der Nutzer möchten nicht die Möglichkeit der Cloud-Speicherung nutzen, sie vertrauen der Technik einfach nicht. Dies umso mehr, weil kürzlich Nacktfotos von Prominenten von gehackten Accounts gestohlen und veröffentlicht wurden. Ein weiterer Nachteil der sogenannten mobile devices ist die teilweise sehr eingeschränkte Möglichkeit, externe Geräte wie Festplatte, Stick oder Drucker anzuschließen. Schließlich ist einer der bedeutendsten Nachteile die Eingabe an sich. Auch, wenn es externe Tastaturen gibt, viele Leute können sich daran einfach nicht gewöhnen und gehen zur klassischen Variante zurück und arbeiten wieder an ihrem Windows-PC. Auch bei den Reparaturmöglichkeiten schneiden Smartphones und Tablets wie das iPad schlechter ab. Obwohl die Geräte für den mobilen Einsatz konzipiert sind, sind sie doch empfindlicher, als man denkt. Ein Display-Austausch oder ein Defekt des Touchscreens kann unverhältnismäßig teuer werden, das gilt übrigens auch für eine Datenrettung, falls das Gerät überhaupt nicht mehr funktioniert. Das ist bei Windows PC’s oder Laptops schon teuer, dafür sind aber die Erfolgsaussichten erheblich besser.

 

Als Fazit lässt sich sagen, dass die Vorhersagen vor einigen Jahren so nicht eingetroffen sind. Die Leute schätzen gewohnte Arbeitsmittel und haben gemerkt, dass allein ein Tablet oder Pad nicht ausreicht, um vollständig arbeitsfähig zu sein.


 
 
 

Lassen Sie Ihre Netzwerkverbindungen über die Stromleitungen laufen


Posted on: September 17th, 2014 by linkhero
 

In den meisten Haushalten in Deutschland gibt es mittlerweile mehr als ein internetfähiges Gerät. Oft hat man noch einen Desktoprechner einen oder zwei Laptops und mehrere Smartphones je nach Größe der Familie. In vielen Fällen ist ein Router alleine damit überfordert, alle Räume der Wohnung oder des Hauses mit einem stabilen Netz zu versorgen. Nun hat man die Möglichkeit, das vorhandene WLAN-Netz mit einem oder zwei Repeatern zu erweitern, allerdings wird es immer so bleiben, dass eine WLAN Verbindung immer etwas weniger stabil ist. Für manche Anwendungen wie zum Beispiel große Downloads oder Online-Spiele ist es immer besser, eine stabile LAN-Verbindung zu haben. Außer in hochwertigen Neubauten sind für gewöhnlich in Wohnungen und Häusern keine Netzwerkkabel verlegt, so dass dies nachträglich eingebaut werden müsste. Für viele ist es ein zu großer Aufwand, das ganze Haus neu zu verkabeln. Die Lösung für dieses Problem ist das so genannte d-LAN, eine Technologie, die eine LAN-Verbindung über die vorhandenen Stromleitungen herstellt. Dafür gibt es auf dem Markt Adapter, die man einfach in die Steckdose steckt und so das Haus vernetzt. Wichtig dabei ist, dass man möglichst die Adapter direkt in eine Wandsteckdose steckt, der Betrieb in einer Mehrfachsteckdose kann Störungen verursachen. Als zusätzliches Feature gibt es auch d-LAN-Adapter, die gleichzeitig als WLAN-Hotspot fungieren. Damit hat man auch im ganzen Haus Empfang mit einem Smartphone, ipad oder Notebook, was natürlich extrem praktisch ist. Ein zusätzlicher großer Vorteil ist neben der Einsparung der Verkabelung, dass über eine LAN Verbindung wesentlich schneller Daten innerhalb des Netzes transportiert werden können. Wenn Sie zum Beispiel eine Netzwerkfestplatte haben und darüber Filme oder Musik streamen, haben sie eine spürbare besseren Datenstrom. Laut Anleitung ist die Einrichtung der d-LAN-Adapter relativ simpel, allerdings hatte ich Probleme, mein Kabelmodem damit zu verbinden. Ein Computerexperte, der mir empfohlen wurde und hier bei uns einen PC-Service anbietet, konnte mir das ausführlich erklären. Wenn man so wie ich nur ein Kabelmodem hat, kann darauf auch nur ein Computer gleichzeitig ins Netz. Aus diesem Grunde brauchte ich noch einen Router, der das Signal des Kabelmodems sozusagen aufteilt. Der Laptop-Service baute mir dann die Konfiguration zusammen. Das Kabel vom Kabelmodem wurde in den WAN-Port des Routers gesteckt und von einem der Ports für dein Kabel in den ersten d-LAN Adapter. Damit das Ganze funktioniert, muss man, nachdem man alles verkabelt hat, alles ausschalten und zuerst das Kabelmodem neu starten, dann den Router und dann nacheinander die Adapter. Mit dieser Konfiguration hat es auch auf Anhieb geklappt und wir haben im ganzen Haus ein stabiles Netzwerk. Ich kann die Alternative mit d-LAN nur jedem empfehlen.


 
 
 
Vermissen Sie den Windows-Papierkorb, stellen Sie ihn im Nu wieder her. Das klappt auch mit Tuning-Software.
Der Papierkorb ist ein praktisches Werkzeug: Alle Dateien, die Sie löschen, landen zunächst in diesem Auffangbecken. Erst wer den Papierkorb explizit leert, löscht die darin gespeicherten Daten – sodass sie mit Bordmitteln nicht wiederzubeschaffen sind. Bei Bedarf stellen Sie versehentlich gelöschte Dateien mit wenigen Mausklicks wieder her. Fehlt das entsprechende Desktop-Symbol bei Ihnen, hat es jemand versehentlich oder absichtlich ausgeblendet. Es könnte auch eine Tuning-Software dafür verantwortlich sein.

Mithilfe des Fensters Desktopsymboleinstellungen zaubern Sie den Papierkorb wieder ans Tageslicht.

Das Wiederherstellen des Papierkorbs ist schnell erledigt: Klicken Sie mit der rechten Maustaste auf eine freie Stelle des Desktops. Nach einem Klick auf die Kontextmenü-Option Anpassen wählen Sie im sich öffnenden Fenster oben links Desktopsymbole ändern. Es öffnet sich ein weiteres Fenster. Indem Sie Häkchen vor den gelisteten Funktionen setzen, bringen Sie sie auf den Desktop. Stellen Sie sicher, dass vor Papierkorb ein Haken gesetzt ist. Mit Klicks auf Übernehmen und OKspeichern und verlassen Sie das Konfigurations-Fenster.

 

Alternative Vorgehensweise

Wer die TuneUp Utilities 2014 nutzt, stellt den Papierkorb mithilfe der Windows-Optimierungs-Software leicht wieder her. Unter Windows XP ist die Nutzung einer solchen Software die einzige Möglichkeit, einen fehlenden Papierkorb wiederzubeschaffen: Der Papierkorb ist unter XP zwar nicht per Einstelldialog ausblendbar, fehlt er aber, sind zur Problemlösung umständliche Eingriffe in die Registrierungs-Datenbank nötig. Nach dem Start von TuneUp 2014 wechseln Sie zur Kategorie Probleme beheben und klicken auf Symbol „Papierkorb“ wird nicht angezeigt. Nach zwei Klicks auf Weiter ist der Papierkorb zurück. Abschließend wählen Sie Fertig stellen.

In Internet-Foren kursieren einige falsche Tipps zum Wiederherstellen des Papierkorbs. Folgende Varianten funktionieren nicht: Im Startmenü nach der Funktion suchen und sie auf den Desktop ziehen, eine Datenrettungs-Software nutzen, unter XP nach einem Rechtsklick auf den Desktop Eigenschaften, Desktop, Desktop anpassen, Papierkorb sowie Wiederherstellenwählen. Mitunter empfehlen einige Foren-Nutzer, den Papierkorb nach dem Papierkorb zu durchsuchen – ein gleichermaßen nutzloser wie absurder Vorschlag.

Papierkorb im Papierkorb

Ist es überhaupt möglich, den Papierkorb in den Papierkorb zu verschieben? Nein – es ist nur vorgesehen, ihn durch das Entfernen eines Häkchens unsichtbar zu machen. Etwas anders sieht das mit Verknüpfungen des Verzeichnisses aus: Die können Sie tatsächlich in den virtuellen Mülleimer befördern. Fehlt der originale Papierkorb, klappt die Wiederstellung mithilfe solcher Verknüpfungen aber nicht, da er dort nach dem Ausblenden nicht auftaucht.

 
 
Website:
http://www.computerbild.de/artikel/

 
 
 

Groß, größer – Alibaba. Der chinesische Onlinehändler wird an der New Yorker Börse Geschichte mit einem Aktiendebüt in noch nie da gewesenem Ausmaß schreiben. 21,1 Mrd. Dollar (16,3 Mrd.Euro) will die Firma zum Start einsammeln, wie aus den am vor dem Wochenende veröffentlichten Unterlagen hervorgeht, die Alibaba bei der US-Börsenaufsicht SEC eingereicht hat.

Angebot

Zunächst sollen 320 Millionen Aktien in einer Preisspanne zwischen 60 und 66 Dollar angeboten werden. Die Preisfestsetzung wird in Finanzkreisen am 18. September erwartet.

Das ist allerdings nur der Anfang: Durch Zusatzrechte, die Alibaba Investmentbanken eingeräumt hat, könnten sogar bis zu 24,3 Mrd. Dollar erlöst werden. Das Unternehmen von Jack Ma – dem reichsten Chinesen, der in seinem Heimatland wie ein Rockstar gefeiert wird – überflügelt alle bisherigen Börsengänge weltweit und steigt schlagartig zu einem der größten Titel am US-Aktienmarkt auf. Die US-Internet-Riesen Amazon können sich warm anziehen.

Vergleiche

An den Finanzmärkten dürfte es das “nächste große Ding” werden und selbst Facebook in den Schatten stellen: Mit dem Emissionserlös wollen die Chinesen selbst Facebook-Gründer Mark Zuckerberg übertrumpfen, der 2012 rund 16 Mrd. Dollar einnahm.

Ausgemachte Sache ist der Erfolg für Experten aber noch nicht, sie sehen Alibabas Weg an die Wall Street als Prüfstein für den von politischen Krisen gebeutelten Aktienmarkt insgesamt: “Der Börsengang ist auf jeden Fall ein Gradmesser für die derzeitige Marktstimmung”, sagt Händler Andreas Lipkow vom Vermögensverwalter Kliegel & Hafner.

Was die Hoffnungen der Anleger nach oben schnellen lässt, ist die Aussicht, an gleich zwei potenziellen Megatrends dieses Jahrzehnts teilhaben zu können: dem Aufstieg der kaufkräftigen chinesischen Mittelklasse und dem Siegeszug des Online-Handels.

Denn wenn die Chinesen Güter des täglichen Bedarfs oder Markenwaren über das Internet bestellen, nutzen sie zumeist Alibabas Auktionshaus Taobao oder dessen Online-Kaufhaus Tmall.

Dominanz

In China, das als größter Onlinemarkt weltweit gilt, hat Alibaba eine Vormachtstellung. Auf den großen Plattformen des Konzerns – Taobao, Tmall und Juhuasuan – wurden im vergangenen Jahr Geschäfte über 248 Mrd. Dollar abgewickelt. Das Unternehmen mit rund 300 Millionen Kunden und 25.000 Beschäftigten wickelt rund 80 Prozent aller privaten Internet-Einkäufe in der Volksrepublik ab. Über Alibaba-Portale werden damit weitaus mehr Waren verkauft als bei Amazon und Ebay zusammen.

Analysten zufolge könnte die größte Gefahr für das Geschäftsmodell von Alibaba aus China selber erwachsen: So liefere sich Alibaba mit dem Suchmaschinenbetreiber Baidu und dem Internet-Unternehmen Tencent einen erbitterten Wettbewerb in allen Online-Marktsegmenten, gibt Experte Jost Wübbeke vom Mercator Institute for China Studies zu bedenken. Der Konzern ist auch rasant gewachsen. Gerade das rasante Expansionstempo kann bei den umworbenen Anlegern die Frage aufwerfen, ob Alibaba den Überblick zu verlieren droht. So gab es bereits Unregelmäßigkeiten bei der Rechnungslegung der Filmproduktionstochter Alibaba Pictures.

Definition

Analyst Carlos Kirjner von Bernstein Research pocht deshalb darauf, dass Alibaba während der wohl Anfang September startenden Werbetour bei potenziellen Investoren detailliert darlegt, wie sich das Unternehmen eigentlich selber definiert und wo es welche Geldquellen mit den Erlösen aus dem Börsengang erschließen will.

Alibaba wird an der Wall Street ein Exot sein. Trotz seiner schieren Größe – das Unternehmen bewertet sich mit bis zu 163 Mrd. Dollar – ist es außerhalb Chinas vergleichsweise unbekannt. Die Konzernstruktur mit etlichen Beteiligungsverzweigungen und diskreten Eigentumsverhältnissen ist für Außenstehende nur schwer zu durchblicken. Das ist ein Kritikpunkt, den Analysten immer wieder anbringen. Auch der SEC hat dies wohl Magenschmerzen bereitet, sonst wäre der Börsengang schon früher erfolgt.

Alibaba will die Platzierung der unter dem Kürzel BABA an der New Yorker Börse zu notierenden Aktien noch in diesem Monat abschließen.

Der größte Alibaba-Anteilseigner, die japanische Investmentgesellschaft Softbank, wird seine Beteiligung beim Börsengang von 34,1 auf 32,4 Prozent abbauen. Der zweitgrößte Investor, das US-Internet-Urgestein Yahoo, reduziert von 22,4 auf 16,3 Prozent. Die Beteiligung von Alibaba-Gründer und -Chef Jack Ma sinkt von 8,8 auf 7,8 Prozent. (APA, 7.9.2014)

 

Siehe hier:

http://derstandard.at/2000005257558/


 
 
 

Firefox 32 steht zum Download bereit


Posted on: September 15th, 2014 by linkhero
 

Firefox 32 ist erschienen und bietet wichtige Verbesserungen sowohl beim Passwort-Manager als auch beim Malware-Schutz.

Mozilla bereitet derzeit die Veröffentlichung von Firefox 32 vor. Die neue Version steht bereits auf den FTP-Servern von Mozilla zum Download bereit. In Kürze dürfte dann auch die offizielle Veröffentlichung folgen. Wer nicht so lange warten möchte, der kann Firefox 32 hier bereits jetzt herunterladen.

Das neue Firefox 32 bietet vor allem Verbesserungen im Bereich Sicherheit. Der neue Passwort-Manager wurde deutlich aufgepeppt und liefert den Anwendern nun auch Informationen darüber, wann ein Passwort das letzte Mal verwendet und aufgerufen wurde. Der Passwort-Manager lässt sich wie gewohnt über die Einstellungen im Reiter “Sicherheit” und dort nach einem Klick auf “Gespeicherte Passwörter” aufrufen.

Firefox 32 mit Malware-Schutz für Downloads

Firefox 32 überprüft Downloads automatisch auf Malware und zwar über die Google Application Reputation Database. Bei einem Fund schlägt Firefox sofort Alarm und verweigert das Aufrufen der betreffenden Datei. Dieser Malware-Schutz kann nur manuell in den Einstellungen abgeschaltet werden. Die entsprechenden zwei neuen Einträge finden sich im Reiter “Sicherheit” und tragen die Bezeichnungen: “Webseite blockieren, wenn sie als attackierend gemeldet wurde” und “Website blockieren, wenn sie als Betrugsversuch gemeldet wurde”. Die entsprechenden Häkchen sollten nur in extremen Ausnahmefällen entfernt werden und anschließend sofort wieder gesetzt werden. Ansonsten sind Sie beim Surfen mit dem Firefox nicht über dessen Safebrowsing-Funktion geschützt.

Firefox 32 mit Public Key Pinning

In Firefox 32 ist auch die Unterstützung für die Sicherheitsfunktion Public Key Pinning aktiviert. Diese Funktion überprüft beim Aufruf einer Website mit Sicherheitszertifikat, ob dieses von einem vertrauenswürdigen Herausgeber stammt. Die Betreiber der Seiten können über Public Key Pinning auch Zertifizierungsstellen festlegen, von denen sie die Zertifikate erhalten. Sollte beim Aufruf der Website das Zertifikat von einer anderen Zertifizierungsstelle stammen, dann wird der Aufruf der Website unterbunden. Auf diese Weise können Man-in-the-Middle-Attacken unterbunden werden.

Firefox 32: Neues Kontextmenü, Suchleiste und verbesserter Müll-Sammler

Hinzu kommen bei Firefox 32 eine Reihe weiterer kleinerer Verbesserungen. Das Kontextmenü erscheint nun in einer neuen Form. An oberster Stelle werden hier nur die Pfeile für Vor und Zurück angezeigt. Ebenso ein Icon zum Aktualisieren der Website und zum Ablegen in den Favoriten. Auf diese Weise lassen sich nun mit der Maus und über das Kontextmenü neue Websites besonders schnell in die Favoriten aufnehmen. Schneller ist nur das Tastatur-Kürzel Strg + D.

Auch von der Integration des generationellen Müllsammlers ist in den Release-Notes die Rede, der das schnellere Ausführen von Javascript-Code ermöglichen soll. Bei der Suchfunktion innerhalb der Seite (Strg + F) werden nach Eingabe eines Suchbegriffs nun auch die Anzahl der gefundenen Treffer angezeigt. Eine Funktion, die Google Chrome bereits seit langer Zeit bietet und die äußerst praktisch ist.

 

zur Webseite:

http://www.pcwelt.de/


 
 
 

Gestohlene Zugangsdaten

Der US-Domainverwalter Namecheap vermerkt seit einigen Tagen deutlich erhöhte Login-Versuche. Die dabei genutzten Kontodaten sollen aus der Sammlung russischer Hacker stammen.

Seit einigen Tagen hat das Intrusion Detection System (IDS) des US-Domainverwalters Namecheap eine deutlich gestiegene Anzahl an Login-Versuchen registriert. Interne Untersuchungen hätten ergeben, dass die dabei verwendeten Login-Daten aus der Datenbank russischer Hacker stammen. Vor wenigen Tagen hatte das IT-Sicherheitsunternehmen Hold Security gemeldet, im Besitz von über einer Milliarde Zugangsdaten zu sein, die es von russischen Hackern erbeutet haben will.

Offenbar probieren Datendiebe die gestohlenen Zugangsdaten massenweise aus. Laut Namecheap hätten die Hacker dafür eine gefälschte Login-Seite erstellt, in der sie die Daten eingeben, um sich Zugang zu den Konten der Namecheap-Benutzer zu verschaffen. Der größte Teil der Zugangsversuche sei gescheitert, da die Passwörter oder die Kundendaten nicht mehr gültig seien, schreibt Namecheap in einem Blogeintrag.

Betroffene werden informiert

Dennoch habe das Unternehmen einige erfolgreiche Einlog-Versuche registriert. Die betroffenen Konten seien umgehend gesichert und deren Besitzer informiert worden, schreibt Namecheap. Die Kunden werden gebeten, ihre Identitäten zu verifizieren und erhalten von Namecheap daraufhin ein neues starkes Passwort. Ihnen wird außerdem geraten, die Zwei-Authentifizierung zu aktivieren, die Namecheap wie viele andere Unternehmen anbietet.

Außerdem werden betroffene Kunden darauf hingewiesen, dass die verwendeten Zugangsdaten nicht bei Namecheap gestohlen wurden. Einen erfolgreichen Einbruch habe es dort bislang nicht gegeben. Das weise darauf hin, dass die Daten auch bei anderen Webseiten verwendet werden. Die Kunden sollten auch dort ihre Zugangsdaten ändern.

IP-Adressen gesperrt

Um sich gegen die zunehmenden Login-Versuche zu wehren, liest Namecheap die IP-Adressen aus, von denen die Einwahlversuche stammen. Sie werden von den Servern des Unternehmens blockiert. Außerdem habe Namespace die Strafverfolgungsbehörden informiert.

Ob die bei Namecheap verwendeten Zugangsdaten tatsächlich aus der Datenbank stammen, die Hold Security aus Daten aus diversen Foren und anderen Quellen gesammelt hat, ist aber unklar. Hold Security war in die Kritik geraten, weil es besorgten Kunden nur einen kostenpflichtigen Dienst anbietet, um herauszufinden, ob ihre Daten zu den gestohlenen gehören.

 

Link zum Artikel:

www.golem.de/news


 
 
 

Hamburg (ots) – Der deutsche Onlinespieleanbieter InnoGames (www.innogames.com/de) hat soeben den ersten deutschen Server bei dem mittelalterlichen Strategiespiel Tribal Wars 2 eröffnet. Der Nachfolger von Die Stämme – mit mehr als 50 Millionen registrierten Spielern eines der erfolgreichsten Browsergames aller Zeiten – ist somit ab sofort neben Deutsch auch auf Englisch in einer offenen Beta spielbar. Weitere 17 Sprachen sollen in den kommenden Wochen folgen. Das Interesse an Tribal Wars 2 ist schon im Vorfeld riesengroß gewesen: Mehr als 300.000 Spieler haben sich bereits für die Beta vorregistriert.

Zuletzt hat InnoGames mit einer kleineren Nutzergruppe das Spiel in einer geschlossenen Beta getestet.

“Die Closed Beta hat uns sehr wertvolles Feedback für die weitere Entwicklung des Spiels geliefert”, erklärt Tribal Wars 2 Product Manager Nino Protic. “Jetzt ist es an der Zeit einer noch größeren Anzahl an Spielern die Gelegenheit zu geben, das Spiel zu testen, damit wir ihm den letzten Schliff für den Launch geben können.

Bei Tribal Wars 2 starten die Spieler als Anführer eines kleinen mittelalterlichen Dorfes. Ihre Aufgabe ist es, dieses zu einem mächtigen Imperium auszubauen. Dabei müssen sie sich in einer umkämpften Welt gegen eine Vielzahl von Feinden behaupten und mächtige Bündnisse abschließen. Das MMO stellt strategische Real-Time Schlachten in den Mittelpunkt des Geschehens. Dabei ist besonders das Team-Play in den einzelnen Stämmen ein wichtiger Erfolgsfaktor für die Spieler. Gegenüber seinem Vorgänger Die Stämme bietet Tribal Wars 2 nicht nur stark verbesserte Grafiken, sondern auch eine Vielzahl an neuen Features, 26 verschiedene Technologien, 13 Einheiten und 17 Gebäude.

Tribal Wars 2 ist als Cross-Plattform-Spiel für Browser und mobile Geräte entwickelt worden. Die Spieler können somit für Web, Android und iOS immer denselben Account verwenden – es erwartet sie stets dieselbe Spielwelt, dieselben Gegner und dieselben Verbündeten. Die Betaphase ist nur für den Browser verfügbar. Die mobilen Apps will InnoGames noch in diesem Jahr veröffentlichen.

Der Vorgänger Die Stämme wurde von den InnoGames-Gründern Hendrik Klindworth, Eike Klindworth sowie Michael Zillmer 2003 als Hobbyprojekt entwickelt.

Mit 130 Millionen registrierten Mitspielern gehört InnoGames zu den weltweit führenden Entwicklern und Publishern von Onlinespielen. Zu den erfolgreichsten Spielen zählen Die Stämme, Grepolis und Forge of Empires.

 

 

Website:

http://www.presseportal.de/pm/79624/2821432/reisst-die-mauern-ein-tribal-wars-2-startet-ersten-deutschen-server-nachfolger-des-legendaeren


 
 
 

Neue größere iPhones, ein Handy-Bezahlsystem, die seit langem erwartete Computeruhr – wenn die Gerüchte stimmen, steht Apple vor einem großen Sprung. Für Konzernchef Tim Cook schlägt mit der Präsentation am nächsten Dienstag die Stunde der Wahrheit: Es werden die ersten Geräte gezeigt, die komplett in seiner Zeit an der Apple-Spitze entwickelt wurden.

In den Fußstapfen von Steve Jobs

Vor allem an der Computeruhr würde gemessen, ob Cook die Fußstapfen seines legendären Vorgängers Steve Jobs ausfüllen konnte. Es wäre der erste Vorstoß von Apple in eine neue Produktkategorie seit dem iPad-Tablet vor über vier Jahren.

Wie vor jedem Apple-Event überschlagen sich die Gerüchte. Die beiden iPhones sollen mit Display-Diagonalen von 4,7 und 5,5 Zoll erstmals so groß wie die meisten Smartphones mit dem Google-System Android werden. Mit dem Bezahldienst solle man in Läden einfach sein iPhone an das Kassengerät halten können und den Betrag über dessen Fingerabdruck-Sensor statt per PIN oder Unterschrift bestätigen. Die Uhr kommt wohl in zwei Größen und soll neben Gesundheits-Sensoren ebenfalls den NFC-Funk unterstützen, auf dem der iPhone-Bezahldienst aufbaut. Nach Informationen des gut verdrahteten Blogs “9to5Mac” lässt Apple andere Online-Dienste bereits Apps für die Uhr entwickeln, darunter sei Facebook.

Die Messlatte für das kommende Event liegt also hoch

Apple betreibt für das Event noch mehr Aufwand als bei den bisherigen Produkt-Vorstellungen und setzt dabei auch auf Symbole. Tim Cook und sein Team werden nämlich im Flint Theater in Cupertino auftreten, in dem Firmengründer Jobs vor 30 Jahren den ersten Mac-Computer vorstellte. Damals wurde erstmals ein modernes Benutzungskonzept für PCs mit Maus und grafischer Oberfläche für den Massenmarkt eingeführt, das heute noch Gültigkeit hat. Die Messlatte für das kommende Event liegt also hoch. Neben dem Flint Theater wurde ein riesiges weißes Gebäude ohne Fenster aufgebaut. Was drin ist, weiß man nicht. Auf der Website läuft ein Countdown zur Live-Übertragung.

Apple will sich in der öffentlichen Meinung die Rolle des Innovators zurückholen. Über Geld muss sich der Konzern angesichts der steten Flut von Milliardengewinnen und über 160 Mrd. Dollar (123,6 Mrd. Euro) auf der hohen Kante zwar keine Gedanken machen. Aber seine Rivalen Google und Samsung werden von manchen Beobachtern und vielen Kunden als die innovativeren Unternehmen wahrgenommen.

Datenbrillen, selbstfahrenden Autos, Kurier-Drohnen

Google experimentiert mit Datenbrillen, selbstfahrenden Autos, Kurier-Drohnen. Und sein Android dominierte den Smartphone-Markt zuletzt mit einem Rekordanteil von fast 85 Prozent. Samsung ist zum größten Smartphone-Hersteller der Welt zwar vor allem mit seinen günstigen Modellen geworden, aber seine Spitzenmodelle wie das Galaxy S5 spielen in der iPhone-Klasse. Zudem beeilte sich Samsung, schon ein Jahr vor Apple mit seiner ersten Computeruhr vorzupreschen. Die ersten Geräte hatten noch Macken und wurden am Markt recht kühl aufgenommen. Bei den neuen Modellen wurden die Rezensionen besser, wie bei der auf der IFA gezeigten Gear S mit Mobilfunk-Anbindung.

Und auch deshalb sind die Erwartungen in eine Apple-Uhr so hoch. In den vergangenen Wochen und Monaten kam zwar eine Flut von Modellen diverser Hersteller auf den Markt. Aber die weitaus meisten hinterlassen das Gefühl, das Konzept ist noch deutlich verbesserungsfähig bei Laufzeit, Bedienung und Design. Kann Apple nach iPhone und iPad-Tablet auch in dieser Kategorie einen Maßstab setzen?

“Die Schweiz hat ein Problem”

Die Uhr gehört zu Apples bisher ambitioniertesten Projekten. “Die Schweiz hat ein Problem”, zitiert die “New York Times” Apples Designchef Jony Ive unter Berufung auf Insider. Allerdings wird auch erwartet, dass eine eventuelle “iWatch” voraussichtlich erst im nächsten Jahr auf den Markt kommt, auch wenn sie schon jetzt vorgestellt werden sollte. Dafür spricht auch, dass auf keiner Gerüchte-Website bisher ein glaubwürdig aussehendes Foto der Apple-Uhr erschienen ist – während längst Bilder aus den Fabriken in Asien ihren Weg in die Öffentlichkeit gefunden haben, die mit hoher Wahrscheinlichkeit die neue iPhone-Generation zeigen.

Tim Cook führt Apple anders als Jobs. Er überlässt seinen Managern mehr Verantwortung und geht schwierige Themen wie den Umweltschutz oder die Arbeitsbedingungen in China. Als zuletzt aus Apple-Profilen gestohlene Nacktfotos von Prominenten im Internet auftauchten, versprach Cook in einem Interview bessere Sicherheitsvorkehrungen. Zugleich betonte er aber auch, dass Apples Systeme technisch gesehen nicht aufgeknackt worden seien. Vor dem Start eines Bezahldienstes kann sich Apple keine Zweifel der Verbraucher leisten.

Die Börse bedachte Apple diesmal mit Vorschuss-Lorbeeren. Die Aktie markierte ein Rekordhoch mit 103,74 Dollar, auch wenn der Kurs danach etwas nachgab. Apple bestellte laut Medienberichten als Startauflage 80 Millionen iPhones – mehr als bei jeder Generation zuvor. (APA, 8.9. 2014)

 

Ursprünglich veröffentlicht:

derstandard.at/2000005296531


 
 
 

Microsoft bringt sein neues Tablet Surface Pro 3 am Donnerstag in Deutschland an den Start. Das Tablet soll ein komplettes Notebook ersetzen und greift das Macbook Air von Apple an. Dafür soll das aktuell Betriebssystem Windows 8 voll ausgenutzt werden.

Anders als seine Vorgänger ist das Gerät mit seiner Ausstattung als ein vollständiger Notebook-Ersatz gedacht. Der Nutzer solle nun alles mit einem Gerät machen können, sei es privat surfen und Filme anschauen oder es beruflich für den produktiven Einsatz nutzen, sagte Microsoft-Manager Oliver Gürtler. Bereits vor der offiziellen Markteinführung hatte das Surface 3 zahlreiche positive Rezensionen erhalten.

Optimal auf Windows ausgelegt

Mit einer Bildschirmdiagonale von 12 Zoll ist es größer als die ersten Modelle, mit rund 800 Gramm aber auch leichter sowie merklich dünner. Es gehöre zu den dünnsten Geräten in der Notebook-Klasse, die mit Intels Core-Prozessor arbeiten, sagte Gürtler. Die Bildschirmauflösung sei ähnlich hoch wie bei Apples Retina-Displays, die einzelnen Pixel ließen sich nicht mehr erkennen. Laut Gürtler will Microsoft mit dem High-End-Gerät vor allem Apples Notebook Macbook Air Konkurrenz machen. Es gehe auch darum, die aktuellen Versionen von Windows als beste Wahl zu bewerben, da es eine breite Auswahl an verschiedensten Geräten für das System gebe.

Das Surface Pro 3 sieht Microsoft als Referenzdesign für Geräte an, die optimal auf sein Betriebssystem Windows ausgelegt sind. Mit dem ersten Surface-Modell hatte der Softwarekonzern im Jahr 2012 noch für manchen Unmut unter seinen Hardware-Partnern gesorgt, da er ihnen direkte Konkurrenz machte.

Halb Tablet, halb Laptop

Nach langer Durststrecke im Tablet-Markt hatte sich Microsoft damals entschieden, ein eigenes Gerät zu entwickeln, das die Vorzüge wie etwa die Touch-Unterstützung von Windows 8 optimal nutzen sollte. Ziel war es, im boomenden Tablet-Markt durchzustarten, der von Apple und Google klar dominiert wurde. Microsoft war es nicht gelungen, seine Marktposition bei Personal Computern auf die mobilen Geräte zu übertragen.

Mehr als zwei Jahre soll das Surface Pro 3 nun aber auch eine neue Gerätekategorie etablieren. Es sei für die Klasse der sogenannten Two-in-One-Geräte positioniert, sagte Gürtler. Mit optionaler Tastatur, die auch als Schutzklappe dient und sich mit einem verbesserten Magnetstreifen an den Bildschirm anbringen lässt, wird das Tablet zum Notebook. Mindestens neun Stunden Akku-Laufzeit sollen es für den beruflichen Alltag tauglich machen.

OneNote-Integration

Zu den Highlights gehöre neben den jetzt stufenlosen Neigungswinkeln auch die Integration von OneNote mit einem elektronischen Stift, sagte Gürtler. Mit einem Klick auf den Knopf an der Kopfseite öffnet sich automatisch die Notiz-Software auf dem Surface und ist ohne Start- und Wartezeit für handschriftliche Notizen verfügbar. „56 Prozent der Berufstätigen bevorzugen heute noch immer Papier und Stift“, sagte Gürtler.

Mit einem Preis zwischen rund 1000 und 2000 Euro orientiert sich das Surface deutlich am Premium-Bereich. Bei der dritten Generation seiner Tablets hatte sich Microsoft dagegen entschieden, ein kleineres und günstigeres Modell herauszubringen. Diese Gerätekategorie wird derzeit von Modellen mit Googles Android-System überschwemmt, Apple ist mit seinem iPad mini stark.

Kommt der PC zurück?

Der sich derzeit wieder erholende PC-Markt könnte Microsoft dabei in die Hände spielen. Branchenbeobachter sprechen bereits von einer Renaissance des PC-Geschäfts. Wie sich das Surface Pro 3 seit dem Start in den USA geschlagen hat, teilte Microsoft bislang nicht mit. Man sei aber mit den Vorbestellungen in Deutschland sehr zufrieden, sagte Gürtler.

 

Artikel-Quelle:

http://www.focus.de/


 
 
 

Intel Core i7-5960X im Test

Intels neues Topmodell für Desktop-PCs, kleine Workstations und Übertakter startet früher als erwartet – und ist mit alter Software manchmal langsamer als der Vorgänger. Für Profis kann sich der Prozessor Core i7-5960X dennoch lohnen.

Diesmal gibt es nicht wenige, sondern gar keine Aufrüstmöglichkeiten: Wer Intels neue Serie Core-i7-5900/5800 nutzen will, braucht eine neue CPU, ein neues Mainboard und neuen Speicher. Das schreckt zunächst ab, ist aber logisch. Der hier getestete Core i7-5960X basiert wie alle Extreme-CPUs der vergangenen Jahre auf Server-Technik, genauer dem ebenfalls bald erwarteten Haswell-EP, der als Xeon 2600 v3 erscheinen wird.

Diese neuen Xeons bringen eine Generalüberholung der gesamten Infrastruktur mit sich, sodass sich auch beim Haswell-E 5960X zahlreiche Änderungen ergeben. Da die Produkte bei Servern und Workstations mehrere Jahre aktuell bleiben, dürfte Intel auch die neue Plattform entsprechend lange pflegen.

Das zeigt sich schon am neuen Sockel LGA 2011-v3, der nur mechanisch gleich bleibt. Selbst alte Kühler, die vor drei Jahren für Sandy Bridge-E (Core-i7-3900) angeschafft wurden, passen also noch. Dennoch sind neue Mainboards nötig, denn die 2011 Kontakte sind anders beschaltet. Das ist dem DDR4-Speicher geschuldet, für den Haswell-E wie gehabt vier Speicherkanäle mitbringt.

DDR4 ist eine direkte Anforderung von Server- und Supercomputerherstellern, die sich laut Intel vor allem mehr Bandbreite wünschen, selbst wenn dafür die Latenzen steigen. Da bei solchen Anwendungen vor allem große Programme und Daten bearbeitet werden, ist die effektive Bandbreite des Hauptspeichers wichtiger als bei kleinen Desktop-Anwendungen. Andere Techniken wie höchstens 40 PCI-Express-Lanes in Version 3.0 und weitere Schnittstellen blieben weitgehend unverändert.

Wichtigste Neuerung sind die acht Kerne, die per HyperThreading 16 Threads parallel verarbeiten können. Nach Intels Lesart ist der 5960X die erste Achtkern-CPU des Unternehmens für Desktop-PCs. Das stimmt nur soweit, wie man nur Core-CPUs und kleinere Modelle als für den Desktop geeignet ansehen mag. Findige Bastler setzen aber schon seit Jahren auch Xeons in günstigen Desktop-Boards ein. Dabei bezahlt man aber stets meist nicht genutzte Funktionen wie die Eignung für ECC-Speicher und die Fernwartung vPro mit – beides unterstützt auch der 5960X nicht. Auch von AMD gibt es seit den ersten Bulldozer-FX-CPUs acht Kerne, wobei aber nur acht Integer-Einheiten vorhanden sind und halb so viele FPU- und SIMD-Rechenwerke.

Der entscheidende Unterschied zu den Xeons sind bei den neuen Core-CPUs die offenen Multiplikatoren sowie weitere Übertaktungsfunktionen. Da sich die Strukturbreite von 22 Nanometern gegenüber Ivy Bridge-E nicht geändert hat, bedingen die beiden zusätzlichen Kerne und der von 15 auf 20 MByte vergrößerte L3-Cache insgesamt bis zu 2,6 Milliarden Transistoren und eine höhere Leistungsaufnahme. Statt 130 Watt TDP sind nun 140 Watt abzuführen, was aber mit guten Luftkühlern noch möglich ist. Damit das klappt, mussten die Taktfrequenzen gesenkt werden.

Mehr Kerne, mehr Cache, weniger Takt

Während der erst vor einem Jahr erschienene Core i7-4960X (Ivy Bridge-E) mit seinen sechs Kernen noch einen Basis- und Turbotakt von 3,6 und 4,0 GHz erreichte, kommt der Core i7-5960X nur auf 3,0 und 3,5 GHz. Mehr Leistung kann er also nur dann erreichen, wenn seine um ein Drittel höhere Zahl an Kernen von der Software auch genutzt wird. Dabei gilt es aber noch die kürzlich von Golem.de ausführlich beschriebenen Eigenheiten der Turbos zu beachten.

Der Basistakt ist bei Intel-CPUs nur die Frequenz, welche die Kerne unter den ungünstigsten Bedingungen mindestens erreichen. In der Praxis liegt auch bei voll in Threads aufgeteilten Programmen wie Cinema4D bei stundenlanger Last der Takt höher – und zwar beim 5960X prozentual gesehen noch höher, als beim 4960X.

Intel gibt einen Turbo-Takt von 3,3 GHz bei Belastung aller Kerne für den 5960X an, den die CPU in unserem Test auch stets erreichte. Das liegt drei Multiplikatorstufen über dem Basistakt. Beim 4960X ist es nur eine, da diese CPU aber dann mit 3,7 GHz läuft, ist sie mit schlecht in Threads aufgeteilten oder gar Single-Thread-Programmen dennoch schneller als der Nachfolger. Wohl daher ist anders als früher befürchtet der 5960X auch nicht teurer als der 4960X, für beide Prozessoren gilt der Großhandelspreis von 999 US-Dollar zuzüglich Steuern.

Da es jetzt ein Drittel mehr Kerne gibt, wurde auch der L3-Cache um ein Drittel aufgestockt, und zwar von 15 auf 20 MByte. Im Verhältnis wurde der schnelle Zwischenspeicher bei den beiden Sechskernmodellen 5930K und 5820K mit 15 MByte sogar überproportional größer, für den Hexacore 4930K gab es nur 12 MByte. Einen Quad-Core wie den 4820K bietet Intel mit der Serie Haswell-E nicht mehr an, seinen Platz übernimmt der 4790K.

Wer sich mit dem 5960X besonders große Systeme mit mehr als zwei Grafikkarten bauen will, stößt an eine schon von seinem Vorgänger bekannte Grenze: Es sind nur 40 PCIe-Lanes in Version 3.0 vorhanden. Das reicht für zwei Grafikkarten mit x16-Anbindung, eine dritte bekommt nur noch 8 Lanes. Bei vier Karten müssen sich drei mit x8-Anbindung begnügen. Bei Spielen reduziert das die Leistung kaum, bei Rechenanwendungen für GPUs kann das aber zum Flaschenhals werden.

Dazu kommt noch, dass mit M.2-SSDs nun eine weitere Komponente zum Nachrüsten existiert, die im Idealfall mit vier PCIe-Lanes angebunden werden sollte. Das hat auch Asus mit dem zum Test verwendeten Highend-Mainboard Rampage V Extreme recht kompromisslos umgesetzt: Wenn sich im vierten PCIe-Slot eine Karte befindet, wird die M.2-Schnittstelle abgeschaltet. Dank Dual-GPU-Karten lassen sich aber dennoch vier Grafikprozessoren und eine M.2-SSD verwenden, alternativ gibt es an diesem Mainboard auch zwei Sata-Express-Schnittstellen, wenn vier Grafikkarten verwendet werden sollen.

Die Zahl der PCIe-Lanes ließ Intel auch bei den beiden kleineren Haswell-E unverändert, der 5930K besitzt 40 Leitungen und der 5820K nur 28. Mit dem kleinsten der neuen Prozessoren lassen sich also nicht einmal mehr zwei Grafikkarten mit voller Bandbreite ansteuern, das war beim 4820K mit 40 Lanes noch anders. Dennoch reichen die PCI-Express-Anbindungen für mehr Erweiterungen als bei den Quad-Cores der Serie Core-i-4000, denn dort sind bei allen Prozessoren höchstens 16 Lanes vorhanden. Die PCIe-Lanes die direkt im Root-Complex des Prozessors sitzen, stehen exklusiv für Steckkarten zur Verfügung, alle anderen Schnittstellen des X99-Chipsatzes inklusive 8 PCIe-Lanes in Version 2.0 stellt dieser selbst zur Verfügung.

Sparsamer X99-Chipsatz und DDR4-Speicher

Traditionell gelten die X-Chipsätze für Intels Highend-Plattformen als Stromverschwender – das hat sich mit dem X99 endlich geändert. Zwar gibt Intel gegenüber dem Vorgänger X79 – ein X89 erschien nie – nur eine Senkung der TDP von 7,8 auf 7 Watt an. Die Strukturbreite wurde aber von 65 auf 32 Nanometer verkleinert, sodass der TDP-Wert wohl nur symbolisch ist, damit die Mainboardhersteller nicht viel zu kleine Kühler verbauen. Da kaum noch Zusatzchips nötig sind, kann die gesamte Plattform viel weniger Energie als bei Sandy Bridge-E und Ivy Bridge-E aufnehmen.

So gibt es nun endlich auch in der Extreme-Serie native Unterstützung für USB 3.0, und zwar gleich für sechs Ports. Wenn mehr Anschlüsse wie beim Asus Rampage V vorhanden sind, arbeiten weiterhin andere USB-Controller auf dem Mainboard – wer sie nicht braucht, kann sie im UEFI abschalten. Zusätzlich gibt es durch den Chipsatz auch bis zu acht USB-2.0-Ports.

Mit zehn Sata-Anschlüssen mit 6 GBit/s stellt der X99 auch so viele Schnittstellen für Massenspeicher zur Verfügung, dass sich damit größere Desktop-RAIDs realisieren lassen. Für Selbstbau-Server sind aber zusätzliche Ethernet-Schnittstellen nötig, nur einen Gigabit-Port kann der Chipsatz direkt anbinden. M.2-Slots sieht Intel nicht direkt vor, sie können aber über die PCIe-Lanes des Prozessors zur Verfügung gestellt werden.

Sparsamkeit ist auch beim neuen Speichertyp DDR4 angesagt. Statt minimal 1,35 Volt bei DDR3 sind DDR4-DIMMs von Anfang an auf 1,2 Volt ausgelegt. Die Speicherchips mit ihren immer kleineren Strukturen von derzeit unter 30 Nanometern machen das eigentlich schon länger mit, nur waren die Adressierungsverfahren und die Busprotokolle für das inzwischen 15 Jahre alte Prinzip von DDR-Speichern kaum geeignet.

Folglich arbeitete das Normierungsgremium JEDEC schon seit über drei Jahren daran, die Organisation der DRAMs und der physikalischen Busse möglichst gleich zu lassen und die Übertragung dennoch schneller zu machen. Alles andere hätte völlige Neukonstruktionen von Speichercontrollern und Mainboards bedeutet. Geeinigt hat man sich schließlich auf neue Protokolle, die Gruppierung in internen Bänken – nicht zu verwechseln mit den üblichen Banks – und mehr parallele Zugriffe durch ein erweitertes Prefetching. Damit die Signalqualität erhalten bleibt, kann der Bus dynamisch invertiert werden.

All das geht mit heutigen Speicherchips zu Lasten der Latenz. Die günstigsten der im Vergleich zu DDR3 ohnehin noch teuren DDR4-Module haben ein CAS-Latency von 17, ein Wert, den auch billigste DDR3-Speicher leicht unterbieten. Ausgeglichen wird das durch einen höheren Takt. Wo effektiv 2.133 MHz bei DDR3 schon zu den besseren Übertakter-Modulen zählen, ist das bei DDR4 die Einstiegsfrequenz – zumindest bei den bisher verfügbaren Modulen.

Allerdings ist DDR4-2133 auch der höchste Wert, den die JEDEC spezifiziert hat, es gibt aber auch schon Module mit 2.800 MHz, und 3.000 MHz sind angekündigt, aber noch kaum verfügbar. Damit die Mainboards die richtigen Timings einstellen, hat Intel sein Extreme Memory Profile (XMP) in Version 2.0 neu aufgelegt – ein Sprung von der bisherigen Version 1.3, die für DDR3 weiterhin gültig ist.

Für den bisherigen Speicher gibt es zwar schon länger auch Module mit effektiv 3.000 MHz und mehr, sodass der Vorteil von DDR4 sich erst langfristig zeigen muss. Er liegt, weil durch Server-Technik getrieben, vor allem in mehr Speicher bei nicht überproportional steigender Leistungsaufnahme. Das zeigte sich schon auf der Computex 2014, als Mainboardhersteller 128 GByte für Haswell-E empfahlen – Intel sieht nur 64 GByte vor.

Äußerlich unterscheiden sich die die neuen Module durch 288 statt 240 Kontakte, dabei sind sie an der Kontaktseite unverändert 134 Millimeter breit. Damit die höhere Dichte der Anschlüsse sicher in den Slot findet, stehen die mittleren Kontakte bei DDR4-Modulen etwas hervor, was mehr Aufwand bei der Fertigung der Platinen bedeutet. Mechanisch passen durch eine verschobene Einkerbung DDR3-Module nicht in DDR4-Slots und umgekehrt. Irrtümliches Einstecken ins falsche Board ist so ausgeschlossen.

Testsysteme und Verfahren

Wir testen für die Benchmarks ein Vorserienexemplar (ES) des Core i7-5960X auf dem Asus-Mainboard Rampage V Extreme aus der ROG-Serie. Es bietet nicht nur den Intel-Sockel 2011-v3, sondern eine Sonderversion, die zum Übertakten mehr Pins der CPU ansteuert, wie unsere Kollegen von PC Games Hardware herausgefunden haben. In unserem Technologievergleich der Plattformen von 2013 und 2014 laufen die Systeme aber innerhalb ihrer Werkseinstellungen.

Da Intel zum ersten Mal seit über drei Jahren die Zahl der Kerne für Desktop-PCs wieder erhöht hat, aber den Takt senkte, konzentrieren wir uns auf den Vergleich von 4960X, 5960X und dem 4770K als erstem Haswell-Quadcore.

Die Messungen der beiden Extreme-CPUs erfolgen sowohl mit dem für die anderen Prozessoren verwendeten Netzteil Dark Power Pro von Be Quiet mit 850 Watt Nennleistung als auch mit dem recht sparsamen und neueren Straight Power desselben Herstellers mit 400 Watt und 80+-Gold-Zertifizierung. Dabei wurde die für die grafiklastigen Tests verwendete Radeon HD 7870 durch eine Radeon HD 6450 ersetzt, die für den Windows-Desktop nur 7 Watt benötigt. Dafür gibt es eigene Diagramme, die nur die Leistungsaufnahme von Intels Extreme-Editions vergleichen. Als Treiber kommt der WHQL-zertifizierte Catalyst 14.4 zum Einsatz. Die Zusatzchips der Mainboards und andere Erweiterungen wie WLAN-Adapter oder LED-Beleuchtungen schalten wir ab.

Intels bisherige Sechskerner laufen auf dem MSI-Mainboard X79A-GD65 8D mit X79-Chipsatz, dort verwenden wir 16 GByte DDR3-2133-Speicher mit den Timings 11-12-12-31. Das ist für Vergleichbarkeit wichtig, weil effektiv 2.133 MHz bisher die kleinste Taktfrequenz für verfügbare DDR4-Module sind. Dort betragen die Timings 15-15-15-35. Die gleichen DDR3-Speicher wie für die Hexacores stecken wir auch in das Z87-Deluxe von Asus, in dem der 4770K vermessen wird.

Alle Anwendungen und Daten kommen von einer Intel-SSD der Serie 520 mit 240 GByte Kapazität, von denen wir 24 GByte für besseres Wear-Levelling unpartitioniert lassen. Die Messungen finden unter Windows 7 Ultimate in der 64-Bit-Version statt, da wir wissen, dass dieses Betriebssystem auch bei den Lesern von Golem.de noch die am weitesten verbreitete Windows-Version und für Benchmarks zuverlässiger ist. Wo möglich, verwenden wir die 64-Bit-Versionen der Anwendungen.

Synthetische Benchmarks zeigen Single-Thread-Schwäche

Acht gegen sechs Kerne lautet das Duell beim Vergleich von 4960X und 5960X. Beim Vergleich der beiden Sechskerner 3960X und 4960X ergaben sich durch die Architekturverbesserungen und den gering gesteigerten Takt 7 bis 10 Prozent mehr Rechenleistung. Intels Ziel ist es, mit jedem neuen CPU-Design, wozu auch Haswell zählt, rund 10 Prozent mehr zu erreichen. Beim 5960X ist dafür der Takt geringer als bei seinem Vorgänger – das kann sich bei Single-Thread-Anwendungen trotz der Architekturvorteile negativ auswirken. Werden jedoch alle Cores voll ausgelastet, sind in der Theorie rund 30 Prozent mehr Leistung zu erzielen.

Das zeigen auch Cinebench R11.5 und R15, die mit Takt und Kernzahl nahezu perfekt skalieren: Der 5960X ist fast ein Drittel schneller als der 4960X, alle anderen CPUs sind abgeschlagen. Bei beiden Programmen lässt sich auch nur ein Kern nutzen, dann ist der 4960X durch seinen Taktvorteil gleichauf. Um die Leistung pro Takt zu bewerten haben wir beide CPUs auch mit einem festen Multiplikator von 30 auf 3,0 GHz eingestellt und Cinebench R15 neu vermessen. Durch zwei Kerne mehr gewinnt dann auch der 5960X.

Das ist auch bei Nutzung von nur einem Core der Fall, allerdings fällt das Ergebnis mit 108 gegenüber 110 Punkten zu Gunsten des 5960X äußerst knapp aus. Immerhin kann der Haswell-E hier seinen Architekturvorteil und den größeren L3-Cache offenbar noch ausspielen. Zudem bleibt Cinebench lange Zeit auf dem selben Kern, was bei älteren Anwendungen nicht der Fall ist.

Ein Extrembeispiel für ein Programm, das ständig die Kerne wechselt – was die CPU intern unter anderem durch Cache-Flushes durcheinanderbringt – ist SuperPi Mod XS 1.5. Wenn wir damit die Kreiszahl auf 4 Millionen Nachkommastallen berechnen, braucht der 5960X über zwei Sekunden länger als der 4960X. Der höhere Turbotakt des Ivy Bridge-E bringt hier den Vorteil, SuperPi ist so klein, dass der größere L3-Cache nicht ins Gewicht fällt. Wenn also noch sehr alte Single-Thread-Anwendungen eingesetzt werden müssen, sollte man durch eigene Tests prüfen, ob sich die neue CPU lohnt. Dann kann auch ein viel billigerer Quad-Core wie der 4790K mit 4,4 GHz bei Belastung eines Kerns schneller sein.

Bei Multithreading-Anwendungen schlägt die um ein Drittel erhöhte Kernzahl aber in der Regel zu, wenn sich die Programme nicht durch die für Desktops ungewohnt hohe Zahl von 16 Threads verwirren lassen.

Medienbearbeitung und Kompression

Selbst wenn ein Programm die acht Kerne und 16 Threads nutzt, kann es auf dem 5960X nicht automatisch schneller sein als beim 4960X. Das ist beispielsweise bei Lightroom der Fall, womit wir 257 Raw-Dateien in LZW-komprimierte TIFFs konvertieren. Dabei lastet das Adobe-Programm die Kerne ungleichmäßig aus, sodass der 5960X leicht langsamer als der 4960X ist. Das heißt nicht, dass die neue CPU sich nicht für Bildbearbeitung eignet. In nicht bewerteten Vergleichen mit Photoshop-Filtern wie Nik Dfine und Color Efex zeigte sich eine gleichmäßige Auslastung.

Ebenfalls langsamer kann der Haswell-E sein, wenn mit Winrar in der 64-Bit-Version die gleichen Raw-Dateien mit normaler Kompression in ein Rar-Archiv verpackt werden sollen. Wenn die gleiche SSD verwendet wird, ist der 4960X durch seinen höheren Turbo-Takt etwas schneller fertig. Wenn solche Aufgaben häufig anstehen, reicht aber schon die Erhöhung um zwei Multiplikatorstufen um den Nachteil auszugleichen. Das ist zwar eine moderate Übertaktung, viele professionelle Anwender schrecken aber vor solchen Eingriffen für ein Produktivsystem noch immer zurück.

Wir haben außerhalb der bewerteten Tests den Rechner sowohl bei der Konvertierung wie auch der Kompression praxisnah genutzt. Dabei fiel auf, dass der Start großer Programme wie Cinema4D oder der Aufruf komplexer Webseiten spürbar schneller abliefen. Genau messbar sind solche Vorteile von einigen Sekunden kaum, es geht eher um einen psychologischen Vorteil: Auch Aufgaben, die ältere Systeme voll auslasteten und unbenutzbar machen, sind nun kein Hindernis mehr, das von anderen Arbeiten abhält.

Wenn nicht gerade alle Kerne unter voller Last stehen, wie das etwa beim Rendering mit Cinema4D der Fall ist, reagiert ein Rechner mit dem Core i7-5960X fixer auf Eingaben und den Start anderer Anwendungen. Es sind stets vier Threads mehr verfügbar als beim 4960X, auf welche das Betriebssystem die Aufgaben verteilen kann.

Für Medienschaffende ist es aber unabdingbar, vor der Anschaffung einer Achtkern-CPU beim Hersteller der meistgenutzten Anwendungen nachzufragen, wie viele Threads von diesen tatsächlich genutzt werden. Da schon acht Threads durch Quad-Cores mit Hyperthreading seit Jahren üblich sind, sollten moderne Programme auch das doppelte nutzen können – denn Achtkerner sind durch die Xeons und AMDs FX-CPUs auch nicht brandneu, mit Intels neuem Haswell-E dürfte die Verbreitung noch etwas zunehmen.

Zahlreiche weitere Benchmarks des 5960X, vor allem mit Spielen, finden sich bei unseren Kollegen der PC Games Hardware, die auch das kleinere Modell 5820K vermessen haben. Den 5960X konnten sie auf bis zu 4,7 GHz übertakten, was aber eine Leistungsaufnahme für das Gesamtsystem von 271 Watt zur Folge hatte.

Rendertests mit über 27 Stunden

Wenn von Multicore-CPUs wie dem 5960X die Rede ist, fällt vielen Anwendern als Paradedisziplin der Videoschnitt ein – das ist aber nicht unbedingt die Programmkategorie, bei denen die Vielkerner ihren Vorteil voll ausspielen können. Noch besser ist 3D-Animation geeignet.

Um zu zeigen, wie sich mehr Kerne in der Praxis der Mediengestaltung auswirken, berechnen wir daher mit Cinema4D R15 ein echtes Projekt. Es wurde uns von dem freischaffenden Fotografen und Filmer Andreas Brauner zur Verfügung gestellt. Anders als beim Cinebench R15 werden damit die Einzelbilder eines 30-Sekunden-Films mit 25 fps berechnet. Dabei entstehen pro Sekunde aber nicht 25 Bilder, sondern 250.

Für die Weiterverarbeitung werden nämlich neben den Bildern der Objekte auch Beleuchtung und Effekte in einzelnen TIFF-Dateien gespeichert, die später in einem Compositing-Programm in Ebenen zusammengefügt werden. Dadurch muss etwa für eine Abdunklung einer einzelnen Szene nicht der gesamte Film neu gerendert werden. Der Rechenaufwand für die Bilder ist enorm: Auf einem Core i7-4770K braucht die Erstellung von 30 Sekunden Animation über 27,5 Stunden Renderzeit.

Da Cinema4D mehr Kerne stets nutzt, sinkt dieser Zeitaufwand mit dem 4960X und erst recht dem 5960X deutlich. Mit Ivy Bridge-E und sechs Cores sind nur noch 20 Stunden und 23 Minuten nötig, was den Arbeitsablauf bei der Produktion entscheidend beeinflussen kann: Das Rendering kann am Abend eines Arbeitstages gestartet werden und ist am Nachmittag des nächsten Tages fertig. Dann können noch Anpassungen vorgenommen werden, und wiederum einen Tag später liegt das hoffentlich korrekte Ergebnis vor. Mit 27,5 Stunden verschieben sich die Arbeiten, sofern nicht Nachtschichten eingelegt werden, immer um einen Tag mehr.

Mit dem 5960X ist der Film bereits nach 14 Stunden und 40 Minuten fertig, was noch mehr Spielraum für Überarbeitungen erlaubt, weil nicht einmal mehr einen Arbeitstag, inklusive der Nacht, gewartet werden muss. Wer das Rendering um 19 Uhr startet, kann am nächsten Morgen um 10 Uhr das Ergebnis überprüfen, und beispielsweise nach einer Konferenz mit Mitarbeitern schon mittags einen neuen Durchlauf starten.

Alle Plattformen, sowohl mit 4770K wie 4960X und 5960X liefen bei unseren Rendertests trotz 16 GByte Speicher mit je vier Modulen auch bei mehreren Durchläufen vollkommen stabil. Dass für tagelanges Rechnen also unbedingt ECC-Speicher nötig ist, scheint zumindest für Cinema4D nicht zuzutreffen.

Leistungsaufnahme mit deutlich höherer Effizienz

Allein an der TDP lässt sich der Energiebedarf moderner Prozessoren nicht beurteilen. Sie ist eine technische Angabe für PC-Hersteller, nicht das, was der Rechner ständig an Leistung aufnimmt. Beim 5960X zeigt sich das deutlich: Die TDP für die CPU allein ist mit 140 Watt angegeben, dennoch nimmt unsere Testplattform mit sparsamem Netzteil nur 146 Watt unter Last auf allen Kernen auf. Das gilt für ein sparsames 400-Watt-Netzteil. Soll für mehrere Grafikkarten ein 850-Watt-Modell genutzt werden, sind es unserem Fall 158 Watt.

Bei ruhendem Windows-Desktop ist die Leistungsaufnahme in einem effizienten PC auf 38 Watt zu drücken, mit weniger sparsamem Netzteil sind es noch 44 Watt. Alle Idle-Werte liegen deutlich unter denen des 4960X, unter Last benötigt der 5960X-PC aber im besten Fall 146 statt 136 Watt wie beim 4960X-System. Da dabei jedoch für rund 30 Prozent mehr Rechenleistung nur gut 7 Prozent mehr Energie aufgewendet werden müssen, ist der Haswell-E dennoch der deutlich effizientere Prozessor.

Nun vom 4960X umzusteigen, dürfte sich aber rein aus Gründen der Energieeinsparung kaum lohnen, selbst wenn um den 5960X herum eine Maschine gebaut werden soll, die stets unter Volllast steht. Bis die rund 1.500 Euro für CPU, Mainboard und RAM an Stromkosten eingepart sind, ist die Plattform längst veraltet.

Bei allen Betrachtungen der Leistungsaufnahme von Highend-CPUs ist neben dem Netzteil das Mainboard entscheidend. Unser verwendetes Rampage V von Asus ist auf Overclocking, nicht Effizienz getrimmt. Die große E-ATX-Platine bedingt allein schon längere Leitungen. Dass sich damit dennoch geringere Idle-Werte als beim 4960X ergeben, den wir auf einem recht sparsamen MSI-Mainboard gemessen haben, beeindruckt umso mehr. Auf beiden Boards haben wir alle Zusatzchips, Funkmodule und die LED-Beleuchtung für diese Messungen abgeschaltet. Mit all diesem Zubehör nimmt das Rampage V rund 10 Watt mehr auf.

Mit kleineren Mainboards und noch effizienterem Netzteil – unser Be Quiet ist nach 80 Plus Gold zertifiziert – sollten auch Haswell-E-Systeme zu machen sein, die an der 30-Watt-Grenze kratzen. Für eine komplett neue Plattform ist das eindrucksvoll, insbesondere die Hersteller von kleinen Workstations sollten diese Vorteile durch sorgfältige Konfiguration nutzen.

Fazit

Der Core i7-5960X markiert einen Umbruch. Intel setzt konsequent auf mehr Kerne, auch wenn der Takt dafür etwas geringer ausfällt. Ohne Übertaktung ist die Achtkern-Plattform bei geringer Last sogar sparsamer als die Sechskern-Vorgänger. Haben alle Cores viel zu tun, rechtfertigt die Mehrleistung die gering erhöhte Leistungsaufnahme völlig. Ein effizientes Netzteil ist dafür die Voraussetzung.

Auch wenn ein Drittel mehr Kerne für Medienschaffende, welche die Kosten einer Xeon-Workstation scheuen, zunächst verlockend scheinen, will ein Umstieg dennoch gut überlegt sein. Ein neues Mainboard und neuer Speicher sind neben der CPU in jedem Fall zu bezahlen – da war der unveränderte Preis der Highend-CPU für Intel fast schon Pflicht. Soll für Medienbearbeitung ohnehin ein komplett neuer Rechner angeschafft werden, weil der alte noch genutzt wird, ist der 5960X die bessere Wahl als der 4960X.

Das gilt vor allem, wenn Zukunftssicherheit wichtig ist. Da die entsprechenden Xeon-CPUs demnächst erst erscheinen, dürfte Intel die neue Plattform einige Jahre mit neuen Produkten pflegen. Das ist bei der Serie 4900 nun nicht mehr zu erwarten. Wer einen Rechner damit noch aufrüsten oder von 3900 auf 4900 umsteigen will, sollte das bald tun, denn irgendwann werden die älteren CPUs als Neuware rar und teuer. Ein aktuelles gutes Beispiel noch für X79-Boards ist der Xeon E5-2650 v2 mit acht Kernen bei 2,6 bis 3,4 GHz. Dafür muss das Board aber eine passende Firmware besitzen. Übertakter, die sich ihr Technikspielzeug etwas kosten lassen, haben ohnehin kaum eine Wahl als den 5960X, denn andere Achtkerner mit offenem Multiplikator gibt es sonst in diesen Leistungsdimensionen nicht.

Dass beim Start einer neuen Speichergeneration wie jetzt mit DDR4 die Produktauswahl so groß ist, stellt ebenfalls ein Novum dar. Da aber bisher fast ausnahmslos auf Overclocker zugeschnittene Module erhältlich sind, sind die Preise entsprechend hoch. Schon in einigen Wochen dürfte sich das ändern, wenn die DIMMs für Xeons verfügbar werden – dann ist auch viel Speicher zu Preisen von DDR3 zu erwarten.  (nie)

 

Webseite:

www.golem.de/news/


 
 
 

Windows Store: Nutzer kritisieren Microsofts Vorgehen gegen Fake-Apps


Posted on: September 8th, 2014 by linkhero
 

Windows Store

Microsoft hat innerhalb von rund drei Monaten 1.500 sogenannte Fake-Apps aus dem Windows Store entfernt. Das klingt erst einmal viel, aber weiterhin enthält der Store viele fragwürdige App-Titel. Nutzer kritisieren das halbherzige Vorgehen von Microsoft.

Sie nerven und stören: Fake-Apps. Vor allem im Windows Store und auch im Windows Phone Store ist Microsoft dagegen vorgegangen und hat einige solcher Fake-Apps entfernt. Dabei handelt es sich um Einträge, die etwa die Bezeichnungen bekannter Apps kopieren und die Nutzer so in die Irre führen. Beispiele hierfür sind VLC, Youtube, Firefox, iTunes oder Ähnliches. Die Fake-Apps kosten oftmals Geld – die eigentlichen Originale sind hingegen kostenlos zu bekommen.

Mitte Mai 2014 hatte Microsoft verkündet, gegen derartige Fake-Apps vorgehen zu wollen. In den vergangenen drei Monaten hat Microsoft nun nach eigener Aussage 1.500 solcher Apps aus dem Windows Store entfernt. Allerdings kritisieren Nutzer, dass weiterhin viele Einträge im Windows Store vorhanden sind, die Markennamen und Logos anderer Apps verwenden. Eine exemplarische Suche nach Youtube veranschaulicht das existierende Problem.

Käufer von Fake-Apps bekommen Geld zurück

Wer sich eine Fake-App gekauft hat, kann sich an den Microsoft-Support wenden und soll das Geld zurückerhalten. Für die Käufer einer Fake-App könnte es schwierig sein zu erkennen, ob sie zu den Betroffenen zählen. Microsoft hat keine Liste der 1.500 entfernten Apps veröffentlicht, die Betroffenen helfen könnte. Es ist nicht bekannt, ob Microsoft die Käufer der betreffenden Produkte direkt informiert.

Unter Microsofts aktuellem Blog-Posting zur Löschaktion bemängeln Nutzer ein halbherziges Vorgehen gegen Fake-Apps. Sie berichten, dass Microsoft vielfach nicht angemessen auf gemeldete Verstöße reagieren würde. Wenn Microsoft auf Fake-Apps hingewiesen werde, erhalten sie die Antwort, sich an den App-Entwickler zu wenden. Der Hüter des Windows Stores selbst wird erst einmal nicht aktiv.

Microsofts Dilemma

Microsofts Dilemma ist weiterhin offensichtlich. Einerseits möchte Microsoft, dass sowohl im Windows Store als auch im Windows Phone Store möglichst viele App-Titel aufgelistet sind. Auf der anderen Seite sorgen Fake-Apps dafür, dass der Store unnötig unübersichtlich ist und eine Vielfalt vorgaukelt, die nicht gegeben ist. Das könnte das bisher zögerlich erscheinende Vorgehen von Microsoft erklären. Der Hersteller will die Menge der Einträge im Windows Store offenbar nicht zu sehr verringern.

Ein Kommentator fasst das Problem zusammen: Er unterstellt Microsoft, dass das Unternehmen bis Mai 2014 mit Freude und Begeisterung solche Fake-Apps durchgewunken habe. Falls das nicht stimme, sei es ein Indiz für eine bisherige fahrlässige Prüfung der App-Einreichungen.

Die nächsten Monate werden zeigen, ob Microsoft nun entschiedener gegen Fake-Apps im Windows Store vorgeht. Es wäre zu wünschen, denn unterm Strich werden es die Kunden des Stores zu schätzen wissen, wenn Suchergebnisse die passenden Treffer liefern. Derzeit ist es bei populären Apps noch immer so, dass bei einer Suche danach stattdessen Produkte mit zweifelhaftem Nutzen erscheinen.

 

Adresse der Quelle:

http://www.golem.de/news