Tag Archives: deep learning

Pressemitteilungen

AI-Superpowers: China, USA und die Künstliche Intelligenz

Kai-Fu Lees Buch zum Wettlauf um die Zukunft

Können Maschinen denken? Werden zukünftig Roboter alte Menschen pflegen? Ob es um selbstfahrende Autos geht, automatische Sprach- und Gesichtserkennung, die Diagnose von Krankheiten, die Automatisierung von Industrieprozessen oder Erleichterungen für das tägliche Leben: Kein Thema fasziniert die Wirtschaft so sehr, wie die Entwicklung neuer intelligenter Produkte und Anwendungen. KI (Künstliche Intelligenz) oder englisch AI (Artificial Intelligence) lauten die Zauberworte der Stunde, und kaum ein anderer kennt sich besser damit aus als Kai-Fu Lee.

In Taiwan geboren und in den USA und Hongkong ausgebildet, arbeitete Lee viele Jahre in der US-Internetwirtschaft und war Gründungsdirektor von Google in China. Sein Buch zeichnet den fulminanten Aufstieg des chinesischen Technologie-Sektors zur Weltspitze nach und dokumentiert dessen neue Autonomie gegenüber den USA. Lee berichtet aus erster Hand, wie Business-Kulturen aufeinanderprallen und warum die Silicon-Valley-Strategien in China scheitern mussten.

Denn die Zeit, in der China amerikanische Produkte und Dienstleistungen imitierte, ist lange vorbei. Heute macht China eigene Erfindungen und entwickelt Geschäftsmodelle, die speziell auf die Bedürfnisse und Gewohnheiten der chinesischen Bevölkerung zugeschnitten sind. Chinesische Internet-Riesen und tausende kleine AI-Unternehmen setzen Maßstäbe und arbeiten sich ungebremst an die Weltspitze vor.

Ist es Entwicklern und Unternehmen in Europa noch möglich, den Vorsprung der KI-Super-mächte beiderseits des Pazifiks aufzuholen? Kai-Fu Lee, bestens vertraut mit beiden Epizentren der digitalen Wirtschaft, mahnt zur Eile, denn eine schnelle und einfache Lösung gibt es nicht. Je mehr Daten die chinesischen und amerikanischen Internet-Riesen sammeln und je stärker sie deren Auswertung perfektionieren, desto schwieriger wird es für andere, zu ihnen aufzuschließen. Sein Fazit: Es ist höchste Zeit für die Europäer, die Herausforderung anzunehmen und eigene KI-Innovationen voranzubringen!

Der Autor
Dr. Kai-Fu Lee, ehemaliger Google-China-Chef, vorher in leitenden Positionen bei Microsoft, SGI und Apple, ist Chairman und CEO von Sinovation Ventures und Präsident des Artificial Intelligence Institue von Sinovation Ventures. Er hat in den USA und in Hongkong studiert und promoviert. 2013 wurde er vom Time Magazine als eine der 100 wichtigsten Persönlichkeiten ausgewählt. Er zeichnet verantwortlich für zehn US-Patente, hat in China acht Bücher veröffentlicht und hat mehr als 50 Millionen Follower in den Sozialen Medien.

Kai-Fu Lee
AI-Superpowers
China, Silicon Valley und die neue Weltordnung
320 Seiten, gebunden, mit Schutzumschlag und Lesebändchen
EUR 26,00/EUA 26,90/sFr 35,80
ISBN 978-3-593-51125-2
Erscheinungstermin / Sperrfrist: 21.08.2019

Campus Frankfurt / New York ist einer der erfolgreichsten konzernunabhängigen Verlage für Wirtschaft und Gesellschaft. Campus-Bücher leisten Beiträge zu politischen, wirtschaftlichen, historischen und gesellschaftlichen Debatten, stellen neueste Ergebnisse der Forschung dar und liefern kritische Analysen.

Firmenkontakt
Campus Verlag GmbH
Inga Hoffmann
Kurfürsternstraße 49
60486 Frankfurt am Main
069 976516 22
hoffmann@campus.de
http://www.campus.de

Pressekontakt
Campus Verlag
Inga Hoffmann
Kurfürsternstraße 49
60486 Frankfurt am Main
069 976516 22
hoffmann@campus.de
http://www.campus.de

Die Bildrechte liegen bei dem Verfasser der Mitteilung.

Pressemitteilungen

Schenker Technologies präsentiert Hochleistungs-Computer für das lokale Training künstlicher Intelligenzen

Mit der neuen SCHENKER AI-Station- und AI-Laptop-Produktlinie powered by TUXEDO wendet sich Schenker Technologies an innovative Start-ups, die ein hohes Maß an Rechenleistung für das lokale Training einer künstlichen Intelligenz benötigen.

Die vollständigen Turn-Key-Lösungen basieren auf dem Betriebssystem Ubuntu 18.04.2 LTS. Ihre Besonderheit liegt in der Vorinstallation einer Vielzahl von Programmbibliotheken, die bei der Arbeit an professionellen KI-Projekten unerlässlich sind. Das Leipziger Unternehmen und seine Kooperationspartner stellen die neue Produktlinie sowohl als Desktop-PC für den stationären Einsatz (AI-Station) als auch in Gestalt eines mobilen High-End-Laptops (AI-Laptop) vor. Beide Versionen bieten umfassende Konfigurationsmöglichkeiten und erlauben den Aufbau von für das jeweilige Projekt maßgeschneiderten Systemen in unterschiedlichen Preis-Leistungs-Klassen. Damit intensiviert Schenker Technologies seine Strategie, in Zusammenarbeit mit kooperierenden Branchen-Experten hochspezialisierte Lösungen für professionelle Anwender anzubieten.

Schneller Einstieg dank vorinstallierter Programmbibliotheken

Neben Ubuntu 18.04.2 LTS umfasst die speziell vorkonfigurierte Basisinstallation der SCHENKER AI-Station sowie des AI-Laptops powered by TUXEDO alle in der KI-Entwicklung gängigen Open-Source-Programmbibliotheken. Google TensorFlow, das Microsoft Cognitive Toolkit, MXNet, PyTorch und Theano machen die Systeme zu direkt einsatzbereiten Entwicklungsgrundlagen für die Bereiche Artificial Intelligence, Deep Learning, Machine Learning sowie zum Aufbau neuronaler Netze. Die Implementierung erfolgt auf Basis virtueller Umgebungen durch das schlanke Repository-Managementsystem Miniconda 3, welches auf Python 3.7.3 aufsetzt. Die Namensgebung der Virtual Environments orientiert sich an der Bezeichnung der jeweils zugrunde liegenden Programmbibliothek.

Eine zweite, virtuelle Umgebung stellt Jupyter Notebook zur Verfügung. Diese unterstützt den Anwender mit ihren spezifischen Notizbuch- und Dokumentationsfunktionen, erweiterten Diensten zum kollaborativen Arbeiten sowie einer Möglichkeit zum direkten Ausführen von Code bei der Umsetzung komplexer Projekte. Die Community Edition der integrierten Entwicklungsumgebung PyCharm rundet die herstellerseitige Vorinstallation ab.

Entwicklungspartnerschaft ermöglicht maßgeschneiderte Lösungen und passgenauen Support

In der Entwicklung der neuen AI-Produktlinie kulminiert die Expertise unterschiedlicher am Projekt beteiligter Spezialisten. Als vertriebsstarker und verlässlicher Systemintegrator nutzt Schenker Technologies die technische Versiertheit des Schwesterunternehmens TUXEDO Computers, einem renommierten Experten für die Integration von Hard- und Software unter Linux. Das österreichische KI-Start-up Ondewo zeichnet sich als dritter Spezialist im Bunde für die spezifische Anpassung der Softwareausstattung entsprechend der Bedürfnisse der KI-Entwicklergemeinde verantwortlich.

Die SCHENKER AI-Modellreihe powered by TUXEDO ist außerdem mit TUXEDOs WebFAI ausgestattet, bei welchem es sich um ein vollautomatisches Installationssystem für die verwendete Linux-Distribution einschließlich fortlaufend aktualisierter Programmbibliotheken und Treiber handelt. Zusätzlich dient das Tool als einfach zu handhabende Möglichkeit zur Systemwiederherstellung.

Die Entwicklungspartnerschaft bildet die Basis für die bestmögliche Unterstützung der Anwender: Schenker Technologies bietet einen ganzheitlichen Support, der sich nicht allein auf die Hardware-Ebene bezieht. Er umfasst bei Bedarf auch den Bereich der Software einschließlich der vorinstallierten Programmbibliotheken sowie die Möglichkeit, auf spezielle Nachfragen aus der KI-Community reagieren zu können.

Selbst von den Vorgaben abweichende, individuelle Anpassungen sind möglich: Sollten in Teildisziplinen der KI-Entwicklung wie etwa der maschinellen Bilderkennung zusätzliche Anforderungen bestehen, ändert das Leipziger Unternehmen die Standard-Konfigurationen entsprechend der Kundenwünsche.

Vorteile des lokalen KI-Trainings gegenüber der Auslagerung in die Cloud

Der Einsatz einer On-Premise-Lösung für das KI-Training weist mehrere Vorteile gegenüber der Prozessverschiebung in die Public Cloud auf. Dazu zählt vor allem die bessere Kalkulierbarkeit der Ausgaben, denn die für eine vollständige Cloud-Auslagerung fälligen Kosten summieren sich bei steigender Rechenzeit. Der Trainingsprozess selbst verlangt nach einem deutlich höheren Maß GPU-Computing-Leistung als der spätere Betrieb der fertigen KI, somit entwickelt sich das Training in der Public Cloud schnell zur Kostenfalle. Ein weiterer Vorteil liegt in der schnelleren Abarbeitung anfallender Workloads: Gerade bei großen Datenmengen können die nötigen Up- und Downloads in die Cloud ein nicht zu unterschätzendes Maß Zeit beanspruchen. Schließlich behält der Anwender die volle Datenhoheit und ist nicht genötigt, die Ergebnisse seiner Entwicklungsarbeit auf dem Server eines Drittanbieters zu hinterlegen.

Desktop-PCs und Laptops für KI-Entwickler mit skalierbarer Leistung

Um unterschiedlichsten Kundenanforderungen gerecht zu werden, bietet Schenker Technologies die neue Modellreihe sowohl als Desktop-PC als auch in einer mobilen Laptop-Variante auf Basis des SCHENKER KEY 16 an. Beide sind frei konfigurierbar und erlauben somit die Zusammenstellung der jeweils optimalen Preis-Leistungs-Grundlage für den konkreten Use Case. Start-ups mit begrenztem Budget erhalten zusätzlich die Möglichkeit, von der empfohlenen Standard-Ausstattung nach unten abzuweichen. Allen Varianten gemein ist die Verwendung ausschließlich hochwertiger, handverlesener Komponenten aus dem Premium-Segment. Dies sichert selbst im Dauerbetrieb eine hohe Langzeithaltbarkeit.

Die stationäre SCHENKER AI-Station powered by TUXEDO baut auf Intels professioneller X299-Plattform auf, stellt ein höchstmögliches Maß an Leistung zur Verfügung und bietet unterschiedliche Ausstattungs-Optionen. Im Bereich des KI-Trainings kommt vor allem den Grafikkarten besondere Bedeutung zu. Daher umfasst die maximale Ausbaustufe einen Hyperthreading-fähigen Intel Core i9-9980XE mit 18 Kernen sowie einen SLI-Verbund aus zwei Nvidia GeForce RTX 2080 mit jeweils 4-352 CUDA-Cores und 11 GB GDDR6-Speicher.

Bis zu 128 GB DDR4-RAM und unterschiedliche Speicherlaufwerkskombinationen einschließlich zwei schneller, NVMe-basierter und über PCI-Express angebundener M.2-SSDs für den maximal möglichen Datendurchsatz runden das Gesamtpaket ab.

Eine mobile Hochleistungs-Alternative zum stationären Desktop-PC stellt der SCHENKER AI-Laptop powered by TUXEDO auf Basis des SCHENKER KEY 16 zur Verfügung. Obwohl der teilweise aus Metall gefertigte Laptop mit einem großzügigen 16,1-Zoll-Display mit IPS-Technologie aufwartet, zeichnet er sich gleichzeitig durch ein geringes Gewicht von rund 2 kg und einen schlanken Aufbau aus. Die mobile AI-Station kombiniert Intels Core i7-8750H mit einer Nvidia GeForce RTX 2080 im effizienzoptimierten Max-Q-Design, maximal 64 GB DDR4-RAM, bis zu drei Speicherlaufwerken und einer beachtlichen Anzahl an externen Video- und Datenschnittstellen.

Abweichend von den genannten Maximalkonfigurationen lassen sich beide Geräte selbstverständlich auch in weniger leistungsstarken Ausstattungsvarianten zusammenstellen und bieten somit für jeden individuellen Preis-Leistungs-Anspruch die optimale KI-Trainings-Grundlage.

Preise und Verfügbarkeit

Die unter bestware.com frei konfigurierbare SCHENKER AI-Station powered by TUXEDO steht ab sofort zu einem Preis ab 5.999 Euro zur Verfügung. Die empfohlene Basisausstattung umfasst Intels Core i7-9800X, eine Nvidia GeForce RTX 2080 Ti, 64 GB DDR4-3200 und eine 500 GB große Samsung SSD 970 EVO Plus im M.2-Format.

Demgegenüber ist der mobile SCHENKER AI-Laptop powered by TUXEDO auf Basis des SCHENKER KEY 16 zu einem Preis ab 3.149 Euro erhältlich. Seine Basiskonfiguration besteht aus Intels Core i7-8750H, einer Nvidia GeForce RTX 2080 Max-Q, 16 GB DDR4-2666 und einer 500 GB großen Samsung SSD 970 EVO Plus im M.2-Format. Beim Erwerb über die hauseigene Shopping-Plattform bestware.com liefert Schenker Technologies beide Geräte mit einer 36-monatigen Basisgarantie aus.

Über TUXEDO Computers

TUXEDO Computers bietet individuell gebaute PCs und Notebooks, die vollständig Linux-tauglich sind – eben Linux-Hardware im Maßanzug. Die Geräte werden so ausgeliefert, dass Kunden sie nur noch auspacken, anschließen und einschalten müssen. Alle Computer und Notebooks werden im Haus assembliert und installiert. TUXEDO Computers stellt für die Hardware selbst programmierte Treiberpakete, Support, Installationsscripte usw. zur Verfügung, damit auch wirklich jedes Hardwarebestandteil funktioniert.

Über ONDEWO

ONDEWO ist ein mehrfach ausgezeichnetes High-Tech-Unternehmen aus Wien mit Fokus auf den Bereich künstlicher Intelligenz (KI). Die Entwicklungsarbeit konzentriert sich auf eine On-Premise-NLU-Plattform (Natural Language Understanding) auf Basis fortschrittlicher KI-Algorithmen, welche darauf abzielt, die Konversation zwischen Mensch und Maschine zu automatisieren. Als dezidierte B2B-Lösung bietet die Software Unternehmen die passende Grundlage zur kosteneffizienten Automatisierung von Konversationsprozessen (Conversational AI). Dazu zählen beispielsweise virtuelle Mitarbeiter im Telefon-Service, smarte KI-Chatbots, Voice-Business-Anwendungen und sprechende Roboter.

Schenker Technologies ist ein führender Anbieter von IT-Hardware sowie den neuesten Extended-Reality-Technologien. Mit den individuell konfigurierbaren Laptops und Desktop-PCs der Gaming-Kultmarke XMG richtet sich das Unternehmen an Privatanwender, während das SCHENKER-Portfolio professionelle Nutzer und gewerbliche Kunden adressiert. Zahlreiche unabhängige Tests belegen die hohe Qualität der Produktpalette; der exzellente Kundenservice wurde bereits mehrfach seitens der Fachpresse ausgezeichnet.

Die E-Commerce-Plattform bestware.com bietet einen darüber hinausreichenden Produktkatalog: Neben den Geräten der beiden Eigenmarken umfasst dieser auch ausgewählte Drittanbieter-Lösungen, ein breites Angebot an bestware Desktop-PCs sowie ergänzendes Zubehör.

Zudem agiert das Unternehmen europaweit als Spezialdistributor für Augmented- und Virtual-Reality-Hardware und unterstützt seine Kunden in diesem Bereich bei der ganzheitlichen Umsetzung ihrer gewerblich-kreativen Projekte. Robert Schenker und Melchior Franke sind Geschäftsführer des 2002 gegründeten Unternehmens, das rund 70 Mitarbeiterinnen und Mitarbeiter am Standort Leipzig beschäftigt.

Firmenkontakt
Schenker Technologies GmbH
Kai Tubbesing
Walter-Köhn-Straße 2c
04356 Leipzig
+49 (0) 3 41 – 246 704 640
k.tubbesing@schenker-tech.de
https://www.schenker-tech.de

Pressekontakt
Exordium GmbH
Katy Roggatz
Franz-Ehrlich-Str. 12
12489 Berlin
+49 30 311 69 89 150
katy.roggatz@exordium.de
http://www.exordium.de

Bildquelle: @Schenker Technologies

Pressemitteilungen

Innovative Deep Learning Solution for Face Detection

Amsterdam, Netherlands – August 7, 2019 – AI-powered software company Sightcorp has managed to creatively iterate and improve the detection aspect of facial analysis and recognition software, thanks to their unique focus on deep learning, rather than the classical Haar Cascade detector methodology.

This comes on the heels of an effort on the part of Sightcorp to enhance the effectiveness of their AI-powered software for users looking to gain an even deeper insight into moment-to-moment interaction.

From capturing and quantifying emotions and moods, to analyzing information on demographics and providing actionable and reliable data on customers‘ attention spans, Sightcorp intends to give users as much insight as necessary to make an informed, predictive decision.

The initiative focused on deepening the software’s ability to detect faces across varying head poses, with greater accuracy, speed, and granularity. For Sightcorp, it wasn’t just their reputation at stake, but a greater accomplishment of the aim of using an AI-powered face detection solution across a wide variety of applications.

The fact is that not all faces and behaviors are alike. Nor can it be expected that all faces will be completely visible at all times. In some eastern countries, for example, the wearing of face masks makes it difficult to detect the presence of a face. Add to this the conundrum of accuracy across different image and video resolutions, distances, light conditions, camera angles, and head poses, and you have a legitimate issue.

It’s an „issue“ that Sightcorp decided to address head-on, prior to it ever becoming a major problem, by introducing a new methodology. To begin, the Sightcorp team decided to tackle the measurement of the performance of face detection across variations in head poses.

Since most modern datasets already include annotations with some indication on head pose, Sightcorp had a baseline from which to work. Using sets such as the WIDER FACE dataset, which included tags for „typical pose“ or „atypical pose“, and the VGGFace dataset, which divided poses into „front“, „three-quarter,“ and „profile“, Sightcorp gained a clear view forward: Their own solution would need to forge ahead by quantifying detection performance across granular variation in yaw, pitch, and roll.

This new focus would give the team an added advantage: testing for when things were not working. If there were certain values for which yaw, pitch, and roll didn’t work, they could take note. They could also measure the cut-off for yaw, pitch, and roll, beyond which they would need to improve the robustness of the detection process.

So they rolled up their sleeves and got to work. The team used the Head Pose Image Database from the Prima Project at INRIA Rhone-Alpes, a „head pose database…a benchmark of 2790 monocular face images of 15 persons with variations of pan and tilt angles from -90 to +90 degrees. For every person, 2 series of 93 images (93 different poses) are available.“

Harnessing the handy power of Python, the team engineered a small script to create a ground truth CSV file with a path to each file in this dataset and its corresponding pitch and yaw values. The Head Pose dataset was integral and absolutely valuable to the success of this initiative because it encodes yaw and pitch into filenames.

Next, for each value of yaw and pitch, there were at least 30 images. That’s how granular the data truly got. But it’s not simply about accounting for every variation. It’s about creating a benchmark that then allows the AI aspect of the software to take over, running its own „learning“ process to the set of images, going beyond what’s merely scripted in code.

In the case of these images, the face detector should have been able to detect 30 faces for every combination of yaw and pitch. Once the benchmarking script read the file, it ran the face detector on each image under the path column and returned a concrete number of faces detected.

Now, if exactly one face was detected, the output would also include the face rectangle (x, y, width, height). And, in order to concretely visualize the accuracy of their own, newly-engineered solution, versus the „classical“ Haar Cascade method, the team reformatted the data through a heat map.

The results were stunning. Through the heat map, it“s clear to see that over 30% of the squares in a 10×10 grid returned a result without any detection (0% faces detected) when using the Haar Cascade method. Clearly, then, the Haar Cascade detector worked reasonably well, as expected, for frontal and slightly sideways faces.

The issue turned out to be markers for extreme head poses. Here, the measurement performance „rapidly“ declined.

Results for Sightcorp’s own solution, the newly minted „deep learning face detector,“ on the other hand, returned a 10×10 grid of nearly a full set of 100% face detection. It’s a stark differentiation that gave Sightcorp a significant advantage in the calibration of „extreme“ head poses – yet another feather in its already full hat of a solution.

Says the team, „These visualizations give us actionable insights about the kind of head poses where our face detector can do even better.“

For Sightcorp, it’s one small step. For its users, it’s one giant leap – the platform is already being used for retail and digital signage, emotion recognition, attention time, and multiple-person tracking. With this deep learning face detection measurement, Sightcorp now has the ability to ensure that head positions and gaze are not only captured, but also translated into further usable data.

In fact, Sightcorp CEO Joyce Caradonna says, „I am very proud of what the team has achieved with this face detection model. This improvement doesn’t only enhance the software’s core promise, it makes a shift in the way datasets are being used, giving the next generation of comparable analytics platforms that are sure to emerge, a new baseline from which to innovate.“

Contact:
Melissa Roux
melissa@sightcorp.com
Science Park 400
1098 XH Amsterdam
The Netherlands
Ph: +31 20 7051590

Sightcorp is an AI spin-off from the University of Amsterdam specializing in face analysis software. Through computer vision and deep learning Sightcorp can analyse faces in images, videos, and in real-life environments.

Contact
Sightcorp
Melissa Roux
Science Park 400
1098 XH Amsterdam
Phone: 0207051590
E-Mail: melissa@sightcorp.com
Url: http://sightcorp.com

Pressemitteilungen

Logivations bezieht neue Firmenzentrale direkt am Olympiapark in München

KI-Labor, Kundenveranstaltungen und Fachseminare in perfektem Rahmen

München, 29.05.2019 – Die Logivations GmbH, internationales Consulting- und Technologieunternehmen, hat im April 2019 ihre neue Firmenzentrale im obersten Stockwerk des „88 North“ Bürokomplexes am Münchner Olympiapark bezogen.
Mit der Eröffnung des neuen Büros reagiert Logivations auf das anhaltend starke Wachstum und bietet den Mitarbeitern mehr Büro- und Forschungsflächen mit hochmoderner Ausstattung in angenehmem Ambiente. Das neue Büro im „88 North“ in der Riesstraße liegt zentral an einem der Hotspots der neuen Arbeitswelt in München und erfüllt mit seiner richtungsweisenden Infrastruktur alle Ansprüche an ein attraktives Arbeitsumfeld. Es ist zudem eines der bekanntesten Aushängeschilder moderner Architektur in der Münchner Innenstadt – direkt zwischen den Wahrzeichen Olympiapark und o2 Tower. Auch die Verkehrsanbindung ist optimal: Den Hauptbahnhof erreicht man mit der U-Bahn in weniger als zehn Minuten und den Flughafen mit dem Auto in 25 Minuten.
Im eigenen Innovationszentrum baut Logivations zukunftsweisende Technologien wie z.B. die KI-geführten FTF weiter aus und hilft Unternehmen bei der Modernisierung ihrer Logistik. Umfangreiche Testflächen ermöglichen es, kamerabasiertes Live-Tracking und präzise Navigation millimetergenau einzusetzen. In den neuen Räumlichkeiten ermöglicht Logivations auch Kunden und Interessenten einen Einblick in das KI-Labor.
Zum Vormerken: Die beliebte Fachseminarreihe „Herausforderungen und Chancen Lagerlogistik 2022+“ findet vom 19. – 20. September zum ersten Mal in den prominenten „Design Offices“ des 88 North statt. In den modernen Seminarräumen erleben die Teilnehmer alle neuen technologischen Trends für die Gestaltung und Optimierung von Distributionszentren hautnah anhand von Praxisbeispielen.
Logivations bietet mit der Softwarelösung W2MO eine weltweit einzigartige Funktionsbreite und -integration von Supply Chain Engineering, intelligenten Optimierungsalgorithmen, Identifikation und Live Tracking realer Warenbewegungen bis zur operativen Steuerung von KI-geführten FTF.
www.logivations.com

Logivations ist ein internationales Consulting- und Technologieunternehmen mit Sitz in München. Das Unternehmen entwickelt innovative Lösungen für die ganzheitliche Planung und Optimierung aller Aspekte der Logistik auf Basis modernster KI-, Optimierungs- und Web-Technologien sowie Verfahren des „Deep Machine Learning“ nach dem Motto „Design by Efficiency“. Unsere Softwarelösung W2MO ist weltweit führend in der Gestaltung, 3D- und VR-Visualisierung, Optimierung und Bewertung der Prozesse in Supply Chain, Lager- und Produktionslogistik. Bereits über 30.000 professionelle Anwender nutzen W2MO direkt aus der Cloud oder lokal installiert. W2MO wurde mehrfach von Expertengremien ausgezeichnet, u.a. auf der LogiMAT 2011 zum „Besten Produkt“, 2013 vom US-Analysten Gartner Inc. zum „Cool Vendor“ und auch von Volkswagen 2016 zum „Top-Innovator des Volkswagen Scoutings Logistikinnovationen“.
www.logivations.com

Weitere Informationen + Bildmaterial bei:
Richard Brüchle
Logivations GmbH
Riesstraße 16
80992 München
Tel.: +49 89 2190 975 – 0

Kontakt
Logivations GmbH
Richard Brüchle
Oppelner Str. 5
82194 Gröbenzell
+49 89 2190975-0
marketing@logivations.com
http://www.logivations.com

Die Bildrechte liegen bei dem Verfasser der Mitteilung.

Pressemitteilungen

Deep Learning: Synergie zwischen Mensch und Maschine

Smarte Arbeitsteilung mit dem Startup Luminovo

Das Münchner Startup Luminovo unterstützt Unternehmen dabei, Geschäftsprobleme mit der Hilfe von Deep Learning zu lösen. „Wir glauben an Künstliche Intelligenz als eine Technologie, die menschliche Intelligenz unterstützt und nicht ersetzt“, so Gründer Sebastian Schaal. Bisher zählen Startups aus dem Silicon Valley, mittelständige deutsche Firmen, sowie etablierte DAX Unternehmen zu den Kunden von Luminovo.

„Wir unterstützen unsere Kunden auf der kompletten Reise vom Verstehen von KI und seiner Vorteile bis zum Entwickeln neuer Use-Cases, sowie der Programmierung und Umsetzung von zuverlässigen Deep Learning Systemen in Produkten“, so Schaal. Nach Stationen bei Google, Intel und McKinsey haben sich die beiden Gründer Sebastian Schaal und Timon Ruban in Stanford kennengelernt. Sie entschieden sich 2017 nach München umzuziehen, um europäischen Firmen dabei zu helfen, die Adaption von Deep Learning voranzutreiben und sie zielgerichtet bei dem Einsatz zu unterstützen. Luminovo wurde aus der Überzeugung gegründet, dass KI den Menschen unterstützen und nicht ersetzen wird. „Aus diesem Grund stellen wir in all unseren Projekten den Menschen in den Mittelpunkt und entwickeln Lösungen, die es Mensch und Technologie ermöglichen, Probleme hybrid und daher effizient zu lösen“, erklärt Ruban. „Deshalb besteht unsere eingeführte Innovation, dass wir menschlichen Input für kritische Entscheidungen nutzen, um das Training unseres Modells kontinuierlich fortzusetzen.“ Solche Aufgaben beinhalten beispielsweise das Klassifizieren und Überwachen von Bildern und Texten sowie das Extrahieren von Informationen.

Deep Learning Lösung zur Bilderkennung für ProSiebenSat.1

Luminovo hat als Beispiel gemeinsam mit ProSiebenSat.1 eine Lösung entwickelt, die Filmmaterial auf nicht jugendfreie Inhalte präzise,schnell und kostengünstig überprüfen kann. Das System wird parallel zum Menschen in den Prozess integriert und zielt darauf ab, menschliche Entscheidungen nach und nach besser zu verstehen und zu spiegeln. Damit wird dem Kunden ermöglicht, höhere Qualität zu niedrigeren Kosten zu erzielen. Konventionelle Machine Learning Methoden versuchen hingegen, den Menschen vollständig zu ersetzen. Sie sind dabei häufig nicht zuverlässig genug, kompliziert zu verwalten oder auf regelmäßige Überarbeitung angewiesen. Die hybride Lösung von Luminovo hingegen überzeugt durch hohe Zuverlässigkeit von Anfang an, da Mensch und Maschine zusammenarbeiten. So kann flexibel auf Veränderungen und Datenstrukturen reagiert werden und diese stetig verbessert werden, ohne dass eine aufwendige Überarbeitung des Modells als separater Prozess notwendig ist.

Luminovo wurde 2017 von Sebastian Schaal und Timon Ruban in München gegründet. Das Startup unterstützt Unternehmen dabei, Geschäftsprobleme mit der Hilfe von Deep Learning zu lösen. Die Technik soll den Menschen bei zeitaufwendigen, eintönigen Aufgaben unterstützen und ihnen mehr Zeit geben, sich auf kreativere Aufgaben zu konzentrieren.

Firmenkontakt
Luminovo
Sebastian Schaal
Sonnenstraße 6
80331 München
+49 (0) 151 41801088
hello@luminovo.ai
http://www.luminovo.ai

Pressekontakt
Startup Communication
Carina Goldschmid
Thalkirchner Straße 66
80337 München
+49 (0)89 12021926-0
cg@startup-communication.de
http://www.startup-communication.de

Bildquelle: ©Luminovo

Pressemitteilungen

Leidenschaft für Technologien, die die Zukunft verändern

Blumenkränze, Nebelmaschine und Seifenblasen: Das Data Festival hatte nichts mit einer normalen Konferenz zu tun – schon gar nicht im Tech-Bereich. Über 450 Teilnehmer aus 16 Nationen kamen in München zusammen, um sich miteinander zu vernetzen und sich mitunter über Data Science, Machine Learning, Blockchain und Data Visualization auszutauschen und weiterzubilden.

Teilnehmer aus Australien, Brasilien, Japan und vielen weiteren Ländern staunten nicht schlecht, als der Countdown zur dreitägigen Tech-Konferenz „Data Festival“ begleitet von Strobo-Licht und lauter Elektro-Musik losging. Lautes Raunen ging durch den Raum und von Beginn an war klar: Hier herrscht ein ganz anderer Wind, als auf standardmäßigen Konferenzen. Die Mission des Data Festivals lautet: Deutschland muss beim Thema Artificial Intelligence aufholen. Während es 2018 noch 250 Teilnehmer waren, meldeten sich dieses Jahr über 450 Teilnehmer aus allen Teilen der Welt an. Um dem internationalen Publikum gerecht zu werden, wurden fast alle Vorträge auf Englisch gehalten. Vertreten waren über 130 Unternehmen aus zwölf Industrien. „Ein Beweis dafür, dass KI längst nicht mehr nur in der Automobilindustrie eine Rolle spielt, sondern mittlerweile nahezu jede Branche erreicht“, sagt Alexander Thamm, Geschäftsführer der Data Festival GmbH und der Alexander Thamm GmbH. Das Event wurde von dem unabhängigen Beratungs- und Analystenhaus BARC und der Data Science- und AI-Beratung Alexander Thamm GmbH ins Leben gerufen und fand im April 2018 erstmals in München statt.

Deutsche Unternehmen hinken in Sachen Data Science hinterher. Julia Butter von der Scout24 AG bringt es in ihrem Vortrag auf den Punkt: „AI ist wie Teenager Sex. Alle reden darüber, die wenigsten tun es und die, die es tun fragen sich, ob sie es richtig machen.“ Dr. Carsten Bange, Gründer und Geschäftsführer von BARC betont: „Deutsche Unternehmen können sich nur verbessern, wenn mehr miteinander gesprochen wird: Über erfolgreiche Ansätze, aber auch über Probleme, und Hindernisse.“ Um aus Fehlern zu lernen und einen ehrlichen Austausch für Data und AI-Experten zu ermöglichen, endete das Event mit den sogenannten Fuckup Sessions. Anwenderunternehmen wie Continental, BASF und Telefonica zogen blank und sprachen sehr ehrlich über gescheiterte Projekte. Ein wichtiger Unterschied zu anderen Konferenzen, deren Ziele eher Werbeeffekte sind, anstatt der Aufbau einer Community.

Vom 17.-19. März 2020 wird das Data Festival zum dritten Mal stattfinden. Tickets gibt es ab sofort unter datafestival.de

Über das Data Festival
Das Data Festival ist eine dreitägige Konferenz, in der sich Experten und Unternehmen unter anderem aus den Bereichen Artificial Intelligence, Data Science, Machine Learning, Data Engineering über aktuelle Technologien und Zukunftstrends austauschen. Ziel ist es, die Data Community in Deutschland zu vernetzen, um von Erfahrungen zu lernen, Wissen zu transferieren und sich über künftige Entwicklungen auszutauschen. Für die Zukunft sollen weitere Formate und Austauschmöglichkeiten wie Meet-Ups und Roadshows geschaffen werden. www.datafestival.de

Firmenkontakt
Data Festival GmbH
Julie McKenna
Vogelhartstr. 1
80807 München
+49 (0) 89 – 30760880
contact@datafestival.de
http://www.datafestival.de

Pressekontakt
Startup Communication
Alisa Augustin
Thalkirchner Straße 66
80337 München
089-120219260
aa@startup-communication.de
http://www.startup-communication.de

Bildquelle: Data Festival

Pressemitteilungen

GridGain® Professional Edition 2.7 führt TensorFlow-Integration sowie Transparent Data Encryption im Ruhezustand ein und steigert Usability

Durch native TensorFlow Integration ermöglicht GridGain nahtloses Deep Learning

GridGain® Professional Edition 2.7 führt TensorFlow-Integration sowie Transparent Data Encryption im Ruhezustand ein und steigert Usability

(Bildquelle: GridGain)

Foster City Kalifornien/München – 13. Dezember 2018 – GridGain Systems, Anbieter von In-Memory-Computing-Lösungen auf Basis von Apache® Ignite™, kündigt heute die Verfügbarkeit seiner GridGain Professional Edition 2.7 an. GridGain Professional Edition 2.7 unterstützt Apache Ignite 2.7 und beinhaltet eine TensorFlow™ Integration für ein verbessertes Training von Deep-Learning-Modellen. Zudem bietet die neue 2.7 Version eine optimierte Usability, inklusive erweitertem Support für Thin Clients. Die Sicherheit wird durch Transparent Data Encryption im Ruhezustand verbessert. Zusammen vereinfachen diese neuen Features die Nutzung der GridGain In-Memory-Computing-Plattform für zahlreiche Anwendungsszenarien, wie beispielsweise das Erreichen der hohen Geschwindigkeit und Skalierbarkeit, die für die Implementierung eines Continuous Learning Modells für die digitale Transformation nötig sind.

TensorFlow Integration für leistungsstarkes Training von Deep-Learning-Modelle
TensorFlow, ein beliebtes Open-Source Deep-Learning-Framework, ist eine Softwarebibliothek für leistungsstarke numerische Berechnungen. Seine flexible Architektur ermöglicht eine einfache Bereitstellung der Berechnung auf einer Vielzahl von Geräten und Plattformen (CPUs, GPUs, TPUs).

Die Integration von TensorFlow ermöglicht es GridGain-Anwendern, die mit GridGain gespeicherten Daten einfach mit TensorFlow zu verwenden. Als speicherinterne Datenquelle für TensorFlow können GridGain-Anwender das TensorFlow Deep-Learning-Framework für das Training von Deep-Learning-Modellen in Echtzeit nutzen, ohne dass ein eigener Datenspeicher für TensorFlow erforderlich ist.

GridGain Professional Edition 2.7 enthält zudem neue Preprocessing-APIs und zusätzliche Machine-Learning-Algorithmen. Die Algorithmen erleichtern es Unternehmen, die Leistungsfähigkeit von GridGain In-Memory-Computing-Funktionen auf mehr Machine-Learning-Anwendungsfälle wie Erkennung von Kreditkartenbetrug, Hypothekengenehmigungen oder E-Commerce-Produktempfehlungen anzuwenden.

Erweiterter Support von Programmiersprachen
GridGain Professional Edition 2.7 bietet ab sofort erweiterten Support für Thin Clients und unterstützt mehr Programmiersprachen, darunter Python, Node.JS, PHP, C++, .NET und Java. Der Support dieser Thin Clients erleichtert die Programmierung, da Anwender ihre bevorzugte Sprache verwenden können.

Transparent Data Encryption im Ruhezustand
GridGain Professional Edition 2.7 verfügt auch im Ruhezustand eine transparente Datenverschlüsselung. Die Verschlüsselung wird auf alle im GridGain Persistent Store gespeicherten Daten angewendet. Selbst wenn ein Cyberkrimineller in ein GridGain-Cluster eindringen würde, könnte er die Daten nicht im Klartext sehen.

„Unsere neueste Version der GridGain Professional Edition macht es deutlich einfacher Deep Learning mit TensorFlow zu nutzen“, sagt Terry Erisman, Vice President of Marketing bei GridGain Systems. „Außerdem ist GridGain ab sofort noch einfacher zu implementieren und zu sichern, so dass alle Anwender In-Memory-Computing mit der hohen Leistung und massiven Skalierbarkeit nutzen können, die sie für ihre Initiativen zur digitalen Transformation oder Omnichannel-Kundenansprache benötigen.“

Über GridGain® Systems

GridGain Systems revolutioniert den Echtzeit-Datenzugriff und die Datenverarbeitung, indem es eine In-Memory-Computing-Plattform auf Basis von Apache® Ignite™ anbietet. GridGain-Lösungen werden von globalen Unternehmen in den Bereichen Finanzen, Software, E-Commerce, Einzelhandel, Online-Business-Services, Gesundheitswesen, Telekommunikation und anderen wichtigen Branchen eingesetzt. Dazu gehören Kunden wie Barclays, ING, Sberbank, Finastra, IHS Markit, Workday und Huawei. GridGain bietet eine bislang nie dagewesene Geschwindigkeit und massive Skalierbarkeit für Legacy- und Greenfield-Anwendungen. Die auf einem verteilten Cluster von Commodity-Servern installierte GridGain-Software kann sich zwischen den Anwendungs- und Datenschichten (RDBMS, NoSQL und Apache® Hadoop®) implementiert werden und erfordert kein Rip-and-Replace der vorhandenen Datenbanken. Zudem kann sie als transaktionale In-Memory SQL-Datenbank eingesetzt werden. GridGain ist die umfassendste In-Memory-Computing-Plattform für hochvolumige ACID-Transaktionen, Echtzeitanalysen, Web-Scale-Anwendungen, kontinuierliches Lernen und HTAP. Weitere Informationen finden Sie unter https://www.gridgain.com

Firmenkontakt
GridGain® Systems
Simon Herrmann
Stefan-George-Ring 2
81929 München
+49(0)89 9938 8733
gridgain@hbi.de
https://www.gridgain.com/

Pressekontakt
HBI Helga Bailey GmbH
Simon Herrmann
Stefan-George-Ring 2
81929 München
+49(0)89 9938 8733
gridgain@hbi.de
https://www.gridgain.com/

Pressemitteilungen

Technologietreiber Logivations auf der LogiMAT 2019

Maschinelles Lernen für eine industrielle Kamera-Infrastruktur trackt Transporter und Warenbewegungen, steuert FTF und verbessert die Sicherheit

Technologietreiber Logivations auf der LogiMAT 2019

Kamerageführte FTF sowie Tracking LIVE im Einsatz

Die Logivations GmbH, internationales Consulting- und Technologieunternehmen mit Sitz in München, zeigt vom 19. – 21. Februar 2019 auf der LogiMAT in Stuttgart Neuheiten rund um Logistik und Produktion. Gleich auf 2 Messeständen (Halle 7 G01 und Halle 8 F05) präsentieren die Experten von Logivations innovative Technologien für die ganzheitliche Planung, Steuerung und Optimierung aller Aspekte der Logistik auf Basis modernster Optimierungs- und Web-Technologien sowie Verfahren des „Deep Machine Learning“.

Mit der Softwarelösung W2MO und der innovativen Kamera-Infrastruktur revolutioniert Logivations den Alltag in Industrie und Logistik. Das System erlaubt eine redundante und fehlerkorrigierende Konfiguration, da mehrere Kameras gleichzeitig dieselben Objekte und Bereiche erfassen können und deren absolute Position bestimmen.

Logivations ist eine internationale Consulting und Cloud Computing Company mit Sitz in München. Das Unternehmen entwickelt innovative Lösungen für das ganzheitliche Design und die ganzheitliche Optimierung aller Aspekte der Logistik auf Basis modernster Optimierungs- und Web-Technologien sowie Verfahren des „Deep Machine Learning“. Die Softwarelösung W2MO ist „die“ Internetplattform zur Gestaltung, 3D-Visualisierung, Optimierung und Bewertung logistischer Prozesse – und dabei sehr benutzerfreundlich und leicht zu integrieren. Bereits über 30.000 professionelle Anwender weltweit nutzen W2MO direkt aus der Cloud oder lokal installiert. Als SAP Application Development Partner kann Logivations auch eine schnelle und einfache Integration in SAP anbieten. W2MO wurde mehrfach von Expertengremien ausgezeichnet, u.a. auf der LogiMAT 2011 zum „Besten Produkt“, der US-Analyst Gartner Inc. ernannte Logivations 2013 zum „Cool Vendor in Supply Chain Management Applications“ und auch der Volkswagen Konzern wählte Logivations im November 2016 zum „Top-Innovator des Volkswagen Scoutings Logistikinnovationen“. www.logivations.com

Kontakt
Logivations GmbH
Richard Brüchle
Oppelner Str. 5
82194 Gröbenzell
+49 89 2190975-0
marketing@logivations.com
http://www.logivations.com

Pressemitteilungen

QCT und ThinkParQ demonstrieren die erfolgreiche Kombination aus QCT-Hardware und BeeGFS Softwarelösung

QCT und ThinkParQ demonstrieren die erfolgreiche Kombination aus QCT-Hardware und BeeGFS Softwarelösung

QuantaGrid D52BQ-2U Dual-Socket-Server (Bildquelle: copyright – QCT)

Kaiserslautern/Düsseldorf, 18. Oktober 2018 – Quanta Cloud Technology (QCT), ein weltweiter Anbieter von Cloud Computing Hardware, Software und Dienstleistungen für Datencenter, sowie sein Softwarepartner ThinkParQ GmbH (TPQ), eine Ausgliederung des Fraunhofer ITWMs, sind bereit für die nächste Stufe ihrer Zusammenarbeit. QCT DACH präsentiert Kunden in seinem Europa-Hauptsitz in Düsseldorf die Vorteile der Integration der BeeGFS Lösung von ThinkParQ in seine neue QxSmart High-Performance Computing (HPC)/Deep Learning (DL) Anwendung. BeeGFS (ehemals FraunhoferFS) ist ein paralleles Dateisystem, das hinsichtlich Datendurchsatz speziell für Hochleistungsrechner („High Performance Computing“) entwickelt und optimiert wurde. Dank der einfachen Installation auf der bewährten QCT Hardware und der Optimierungsmöglichkeiten durch die QxSmart-Lösung, können Anwender die Leistung und Kapazität der ThinkParQ-Lösung mithilfe der nutzerfreundlichen grafischen Benutzeroberfläche an Tausenden von Nodes nahtlos skalieren.

Bereits im November 2017 hatten sich QCT und ThinkParQ zusammengeschlossen, um die Bereitstellung I/O-intensiver HPC-Cluster voranzutreiben. Nun haben beide Partner beschlossen, die Kooperation auf das nächste Level zu heben. In der europäischen Zentrale von QCT zeigen sie ein kleines, auf dem Intel® Rack Scale Design basierendes HPC-System, das die BeeGFS Lösung integriert und ihre Funktionen vorstellt. Präsentiert wird ein System mit bis zu fünf Servern im laufenden Betrieb. Basierend auf QCTs Flaggschiff-Lösung QuantaGrid D52BQ-2U wird die reibungslose Integration der Softwarelösung BeeGFS mit der Hardware von QCT demonstriert. Der QCT Server überzeugt hierbei durch die Verwendung werkzeuglos installierbarer 2,5″/3,5″ HDDs oder SDDs, durch bis zu 5x PCIe-Erweiterungssteckplätze in einem 1U-Gehäuse sowie eine hohe Rechenleistung und Speicherdichte.

Das Basismodel dieses Servers verwendet einen skalierbaren Intel® Xeon® Prozessor und erreicht eine Spitzenleistung von 2x FLOPs mit bis zu 112 Threads pro Server. Zur einfachen Überwachung des Systems bietet QCT sein eigenes intuitives Managementsystem für Datencenter (QSM), das mit den Industriestandard RESTful API und Intel RSD integrierbar ist. Die Referenzarchitektur der QxSmart HPC/DL-Lösung von QCT passt sich perfekt jeder Anforderung in den Bereichen HPC oder Deep Learning an. Zudem eignet sich das QCT-Servermodell QuantaGrid D52BQ-2U sehr gut für Workloads im Bereich Metadatenspeicherung als auch im Bereich Objektspeicher. Dadurch sind mehrere Speicherkonfigurationen möglich, einschließlich optionalem NVMe-Tier, HBA-Pass-Through und Legacy-MegaRAID mit Backup-Lösungen für den Cache, die auf verschiedene softwaredefinierte Workloads zugeschnitten sind. Darüber hinaus bietet das gezeigte Modell flexible I/O-Optionen, einschließlich einer Vielzahl von SAS mezzaninen- und OCP NIC/PHY mezzaninen Optionen, sodass Anwender die zusätzlichen Kosten unnötiger LOM- oder RAID-Controller vermeiden können.

Dazu Frank Herold, CEO von ThinkParQ: „Das gezeigte Modell nutzt unsere anwenderfreundliche BeeGFS- Lösung und demonstriert deren maximale Skalierbarkeit und Flexibilität, wie etwa bei BeeGFS on Demand (BeeOND). Zudem demonstriert die IT-Umgebung mit dem sogenannten Buddy Mirroring oder dem neu eingeführten Storage Pool-Konzept maximale Flexibilität für verschiedene Kundenanforderungen und beweist damit den Nutzwert einer integrierten QCT- und ThinkParQ-Lösung. „

Bildmaterial zu dieser Meldung finden Sie unter: https://www.qct.io/product/index/Server/rackmount-server/2U-Rackmount-Server/QuantaGrid-D52BQ-2U

Sie finden QCT auch auf Facebook und Twitter – hier erhalten Sie ebenfalls die neuesten Informationen und Produktankündigungen.

Über Quanta Cloud Technology (QCT)
Quanta Cloud Technology („QCT“) ist ein globaler Hardware Anbieter für Rechenzentren. Das Unternehmen hat von Beginn an maßgeblich mit zur Verbreitung und Standardisierung der Hyperscale Datencenter Technology beigetragen. Die Produktpalette besteht aus Computing Servern, Storage Servern, Netzwerk Switches, Rack-Systemen und kompletten Cloud Lösungen, die alle samt Skalierbarkeit, Effizienz, Zuverlässigkeit, und einfache Bedienbarkeit im Design beinhalten. Sämtliche Produkte sind auf flexible Auslastungen hin konzeptioniert.
QCT bietet Anwendern das volle Spektrum von Hardware Peripherie und Dienstleistungen für moderne Rechenzentrums Technologie, angefangen von der Entwicklung und dem Zusammenbau von Rack-Systemen, bis hin zur Optimierung von Einheiten oder kompletten Server Banken. Das alles gibt es weltweit lieferbar und quasi alles unter einem Dach.
QCT ist ein Tochterunternehmen der Quanta Computer Inc., einem Fortune Global 500 Technologie Konstruktions- und Produktionsunternehmen.
Weitere Informationen finden Sie unter: http://www.qct.io/

Alle Marken, Namen und Marken sind Eigentum ihrer jeweiligen Inhaber.

Firmenkontakt
QCT (Quanta Cloud Technologies)
Anna Maria Strerath
Hamborner Straße 55
40472 Düsseldorf
02405-4083-1161
Anna.Strerath@qct.io
https://www.qct.io/

Pressekontakt
GlobalCom PR-Network GmbH
Martin Uffmann
Münchener Straße 14
85748 Garching
089-360363-41
martin@gcpr.net
http://www.gcpr.de

Internationales

Deep Learning Market: Market Shares, Trends, Top Key Players, Industry Overview and Global Forecast to 2023

The deep learning market was worth USD 2.28 Billion in 2017 and is expected to reach USD 18.16 Billion by 2023, at a CAGR of 41.7% from 2018 to 2023. The base year considered for this study is 2017, and the forecast period is from 2018 to 2023.

Software to hold largest market share from 2018 to 2023

Software currently holds the largest market share, while the market for services is expected to grow at the highest CAGR between 2018 and 2023. The software segment consists of software frameworks and platforms/APIs developed using algorithms and codes that enable hardware to carry out deep learning programs. Manufacturers and software providers offer different solutions (frameworks/software development kits (SDKs)) and APIs/platforms that are open to developers working on deep learning programs. For example, Qualcomm offers Zeroth SDK, which helps users and developers use Snapdragon 820 capabilities for deep learning applications such as image and sound processing, including speech recognition. The hardware segment consists of processor chips used for running deep learning algorithms based on neuromorphic architecture and/or von Neumann architecture.

Download PDF Brochure @ https://www.marketsandmarkets.com/pdfdownload.asp?id=107369271

Deep learning market for data mining to grow at highest CAGR from 2018 to 2023

Data mining abstracts related data from files, such as image, video, and audio. With the advent of new technologies, natural language processing and visual data mining have been developed using deep learning techniques. Data mining is used in the following applications: sentiment analysis, machine translation, fingerprint identification, cybersecurity, and bioinformatics. Deep learning offers faster and better memory utilization than traditional computing systems. As data mining is a complex operation, it requires complex hardware architecture and algorithms to perform computational functions, along with service and maintenance of systems. Thus, the demand for services in data mining is expected to grow significantly between 2018 and 2023.

Security to account for largest market size among other end-user industries between 2018 and 2023

Deep learning- and AI-based systems are being significantly used in antivirus and antimalware solutions owing to the rise in cybersecurity attacks across the world. The increasing use of mobile devices for a wide range of applications, such as social networking, emails, remote monitoring, phone banking, and data storage, opens doors for hackers to attack, thereby making networks more vulnerable to risks. The rapid adoption of cloud-based services, along with the user-friendly approach of antivirus/antimalware solutions, is contributing to the growth of this application in the deep learning market for security. The adoption of DL technologies for encryption is likely to witness growth in the coming years.

 Target Audience

  • Chipset manufacturers
  • Cloud service providers
  • Commercial banks
  • Deep learning/machine learning solution providers
  • Device manufacturers
  • DL platform providers
  • Investors and venture capitalists
  • Manufacturers and people implementing AI technology
  • Raw material and manufacturing equipment suppliers
  • Research organizations, universities, and consulting companies
  • Semiconductor companies
  • System integrators
  • Technology investors
  • Technology providers

Request Sample @ https://www.marketsandmarkets.com/requestsample.asp?id=107369271

The deep learning market comprises hardware manufacturers such as NVIDIA (US), Intel (US), General Vision (US), Graphcore (UK), Xilinx (US), and Qualcomm (US); and deep learning solution providers such as Google (US), Microsoft (US), AWS (US), Sensory Inc. (US), and IBM (US). The other key hardware manufacturers are Samsung Electronics (South Korea), Micron Technology (US), and Mellanox Technologies (Israel).