modernes auto

Die Zukunft der Technologie in der Automobilindustrie

So wie Mobiltelefone heute mehr können als nur telefonieren, so können Autos viel mehr als nur fahren und parken. In den letzten Jahren hat die Automobilindustrie Hand in Hand mit großen Technologieunternehmen gearbeitet, um die fortschrittlichsten, sichersten und komfortabelsten Fahrzeuge auf den Markt zu bringen. Autos werden zu großen, intelligenten Geräten mit fortschrittlichen Notbremsfunktionen, Mapping-Technologie für autonomes Fahren, bessere Kraftstoffeffizienz und Autos als Dienstleistung als Transportmittel.

Es gibt keinen Mangel an Möglichkeiten, wie Autos das Leben von Fahrern und anderen Fahrzeugen in ihrer Umgebung in Bezug auf Sicherheit verbessern, mit weniger Aufwand von Punkt A nach Punkt B gelangen und uns während des gesamten Prozesses unterhalten. In den kommenden Jahren wird die Automobilindustrie voraussichtlich noch weiter voranschreiten und uns einen Schritt näher an eine stärker vernetzte und digitalisierte Umgebung bringen.

Hier sind drei der bahnbrechendsten Technologien, auf die Sie sich in der Automobilindustrie in naher Zukunft freuen können.

1) Kraftstoffsparende Fahrten

Tesla steht an der Spitze der Bewegung für Kraftstoffeffizienz und hat eine Reihe von Elektro- und Hybridfahrzeugen auf den Markt gebracht, die mit einer einzigen Tankfüllung Hunderte von Kilometern zurücklegen können. Im Jahr 2016 wurden weltweit mehr als 2 Millionen Elektrofahrzeuge verkauft, und es wird erwartet, dass diese Zahl in naher Zukunft noch steigen wird, da immer mehr Automobilhersteller die Elektrofahrzeugtechnologie in ihrem Unternehmen einsetzen. Unternehmen wie VW und General Motors haben kürzlich Elektroautos für ihre Flotte vorgestellt, während Volvo sagte, dass alle von ihnen produzierten Motoren bis 2020 mit einem Elektromotor ausgestattet sein werden.

Auch Elektrofahrzeuge werden immer erschwinglicher. Unternehmen wie Hyundai, Kia und Toyota stellen Hybridautos unter der 30.000-Dollar-Marke vor, was darauf hindeutet, dass Investitionen in die Kraftstoffeffizienz bald auf der ganzen Welt weit verbreitet sein könnten. In den USA werden bis 2030 voraussichtlich 20 bis 25 Prozent aller verkauften Fahrzeuge elektrisch sein, während diese Zahl in China bis zu 35 Prozent erreichen dürfte.

2) Vorausschauende Fahrzeugtechnologie

Künstliche Intelligenz (KI) und maschinelles Lernen (ML) spielen eine wichtige Rolle in der Zukunft der Automobilindustrie, da die vorausschauenden Fähigkeiten in den Autos immer mehr zum Tragen kommen und das Fahrerlebnis personalisieren. Immer mehr Hersteller wenden Algorithmen an, die Daten zur Automatisierung des Prozesses der Einrichtung eines Fahrzeugs verwenden, einschließlich des Infotainment-Systems eines Autos und seiner Anwendungspräferenzen. Die Fahrzeuge werden zu IoT-Geräten, die sich mit Smartphones verbinden und Sprachbefehle aufnehmen können, wodurch sich die Benutzeroberfläche verändert.

Die prädiktive Fahrzeugtechnologie kann auch in Form von Sensoren und speziellen Autokameras innerhalb eines Autos eingesetzt werden, die den Besitzer darüber informieren, ob das Fahrzeug von einem Mechaniker gewartet werden muss oder nicht. Je nach Kilometerstand und Zustand des Fahrzeugs kann die Technologie seine Leistung einschätzen, Termine in Echtzeit vereinbaren und die Benutzer über Sicherheitsrisiken informieren, die mit einem aufgrund von Rückrufaktionen des Unternehmens nicht funktionierenden Fahrzeug verbunden sind.

3) Selbstfahrende Technologie

Es ist viel aus der autonomen Fahrtechnologie gemacht worden, und obwohl einige Unternehmen ihre Selbstfahrfunktionalitäten auf offenen Straßen getestet haben, sind wir noch weit davon entfernt, diese Autos auf breiter Basis zu übernehmen. Eine Reihe von Autos verfügen bereits über teilautonome Fähigkeiten in Form von fahrerunterstützten Technologien. Dazu gehören automatische Bremssensoren, Sensoren für die Autobahnspur, Kartierungstechnologie zur Überwachung des toten Winkels, Kameras hinten und vorne, adaptive Geschwindigkeitsregelung und Selbstparkfunktionen.

bewässerung für den garten mit einem computer

Was ist eine intelligente Bewässerungssteuerung?

Eine intelligente Bewässerungssteuerung passt die Bewässerung automatisch an die lokalen Wetterbedingungen an. Wenn es zum Beispiel regnet, reduziert oder schaltet die intelligente Bewässerungssteuerung Ihre Bewässerung ab, um Wasser zu sparen. Um das Beste aus Ihrer intelligenten Bewässerungssteuerung herauszuholen, schließen Sie sie an das Weather Web an.

Er funktioniert, indem er Ihre Bewässerung automatisch nach den von Ihnen in den Controller eingegebenen Wetterauslösern auf- und abwärts dreht. Das ist großartig, um Wasser zu sparen und sollte, wenn Sie die richtigen Auslöser eingeben, Ihren Garten noch gesünder machen. Es ist wichtig, dass Sie Ihren Garten im Auge behalten und die Auslöser einstellen, wenn Ihr Garten durstig oder verwässert aussieht. Weitere Informationen zu den besten Bewässerungssysteme im Vergleich findet ihr hier.

Intelligente Bewässerungssteuerungen umfassen ein Online-Portal, auf das Sie über Ihren Computer oder über eine App auf Ihrem Smartphone oder Tablet zugreifen können, so dass Sie Ihre Bewässerung von überall auf der Welt einfach einstellen können! Einige intelligente Beregnungssteuerungen enthalten auch Durchflussmesser und andere intelligente Technologien, die Sie auf eventuelle Lecks in Ihrem Beregnungssystem aufmerksam machen.

Es gibt verschiedene Stufen der „Intelligenz“ in intelligenten Bewässerungssteuerungen, die Sie beachten sollten, wenn Sie zu einem intelligenten Bewässerungssystem wechseln oder es einrichten. Sprechen Sie mit Ihrem bevorzugten Bewässerungsexperten, um aktuelle Ratschläge zu erhalten.

Eine intelligente Bewässerungssteuerung liest Online-Wetterdaten und reagiert über voreingestellte Wetterauslöser. Diese Auslöser werden von Ihnen oder einem lokalen Bewässerungsexperten über ein Webportal oder eine App eingestellt. Hier sind ein paar Beispielauslöser:

  • Schalten Sie die Bewässerung ab, wenn es über 10mm regnet.
    Verringern Sie die Bewässerung um 50%, wenn es über 5 mm regnet.
    Erhöhen Sie die Bewässerung, wenn die vorhergesagte Temperatur über 35 Grad liegt.
    Aussetzen der Bewässerung bei Windgeschwindigkeiten über 50km/h

Was sind die Vorteile einer intelligenten Bewässerungssteuerung?

Da wir alle in unserem täglichen Leben immer beschäftigter werden, kann Technologie wie intelligente Steuerungen helfen, eine manchmal verwirrende und komplizierte Aufgabe intelligent zu automatisieren. Anstatt unsere Bewässerung wöchentlich, vierzehntägig, halbjährlich oder nur jährlich anzupassen, passen sich intelligente Steuerungen jeden Tag automatisch an, basierend auf lokalen Wetterinformationen (hauptsächlich Niederschlag, Temperatur, Wind und Verdunstung). Dadurch wird der Wasserverbrauch um mindestens 20% reduziert, was Ihnen Geld spart!

Während es leicht ist, die Auswirkungen von Unterwasser zu sehen, ist es oft nicht so leicht, die Auswirkungen von Überwasser zu sehen. Doch die negativen Auswirkungen können genauso nachteilig für Ihren Garten mit flachwurzelnden Pflanzen sein und der ständige Abfluss bedeutet, dass Wasser und Nährstoffe in den Abfluss geleitet werden.

Ein weiterer Vorteil ist die einfache und zugängliche App- oder Web-Portal-Funktion, auf die man von überall auf der Welt über ein Tablet, ein Smartphone oder einen Computer zugreifen kann!

Intelligente Controller haben zusätzliche Funktionen wie Durchflussüberwachung, Zonenabschaltung und E-Mail/SMS-Warnungen bei Lecks und Rohrbrüchen (ideal für nächtliche Bewässerungsfehler, die unbemerkt bleiben können). Es gibt auch Warnungen über fehlerhafte Verkabelung bei Ventilfehlfunktionen, die eine häufige Ursache für schwer zu findende Lecks in Bewässerungssystemen sind.

Software

Rekrutierung von Endbenutzern für Enterprise-Softwareanwendungen

Da ich mit einigen Start-ups von Unternehmenssoftware zusammenarbeite, werde ich oft gefragt, wie ich frühe Kunden finden kann, um frühe Design-Prototypen zu validieren und zu verfeinern.

Die Antwort ist überraschenderweise nicht so kompliziert. Das Folgende ist meine Antwort auf eine aktuelle Frage zu Quora: „Wie erreichen wir eine Zielgruppe für Unternehmensanwendungen, wenn Sie noch keinen Unternehmenskunden für Rapid Prototyping haben?“

Einen Kunden zu finden und Endbenutzer zu finden, ist ganz anders. In Unternehmenssoftware sind Endbenutzer nicht die Käufer, und der Käufer (Kunde) kann Ihre Software möglicherweise überhaupt nicht verwenden. Um Endbenutzer zu rekrutieren, gibt es drei Möglichkeiten:

Freunde und Familien: Nutzen Sie Ihre persönlichen Verbindungen über E-Mail- und Social-Media-Kanäle und fragen Sie nach ihrer Zeit (nicht länger als 30 Minuten), um kontextbezogene Anfragen durchzuführen und Ihre Prototypen zu validieren. Die meisten Leute werden nicht nein sagen. Danken Sie ihnen, indem Sie ihnen ein kleines Geschenk oder eine Geschenkkarte geben.

Finden Sie bezahlte Endbenutzer: Dies scheint seltsam, aber es funktioniert. Ich kenne einige Start-ups, die diese Methode effektiv eingesetzt haben. Verwenden Sie Craigslist und andere Methoden, um Personen zu rekrutieren, die Ihrer Endbenutzerrolle entsprechen, und bezahlen Sie sie für die Teilnahme an Feedback-Sitzungen. Es lohnt sich.

Guerilla-Stil: Besuchen Sie eine Tagung oder Konferenz, auf der Sie genügend Endbenutzer finden, die zu Ihrem Profil passen. Zelten Sie auf der Convention mit Swag und führen Sie Rekrutierungen im Guerilla-Stil durch, um zu validieren und Prototypen zu erstellen. Iterieren Sie schnell, vorzugsweise vor ihnen, und validieren Sie erneut.

Rechenzentren durch maschinelles Lernen optimieren

Google hat ein Papier veröffentlicht, das den Ansatz zur Nutzung des maschinellen Lernens, eines neuronalen Netzes, zur Reduzierung des Energieverbrauchs in Rechenzentren beschreibt. Joe Kava, VP, Rechenzentrum bei Google, hat auch einen Blogbeitrag, der die Hintergründe und die Funktionsweise erklärt. Google hat eines der besten Rechenzentrumsdesigns der Branche und nimmt die PUE-Werte (Power Usage Effectiveness) sehr ernst.

Ich habe vor fast fünf Jahren über Googles Ansatz zur Optimierung von PUE gebloggt! Google hat einen langen Weg zurückgelegt, und ich hoffe, dass sie weiterhin so wertvolle Informationen in der Öffentlichkeit veröffentlichen.

Es gibt ein paar wichtige Anhaltspunkte:

In seiner Präsentation bei Data Centers Europe 2014 sagte Joe:
Was die Hardware betrifft, so benötigt maschinelles Lernen laut Kava keine ungewöhnliche Rechenleistung, da es auf einem einzigen Server läuft und sogar auf einem High-End-Desktop laufen kann.
Dies ist ein hervorragendes Beispiel für ein großes Datenproblem mit kleinen Datenmengen.

Dieses neuronale Netz ist ein Ansatz für überwachtes Lernen, bei dem man ein Modell mit spezifischen Attributen erstellt, um die kollektive Wirkung dieser Attribute zu bewerten und zu optimieren, um das gewünschte Ergebnis zu erreichen.

Im Gegensatz zu einem Expertensystem, bei dem ein logikgesteuerter Ansatz im Vordergrund steht, lernen neuronale Netze kontinuierlich aus den zugrundeliegenden Daten und werden auf ihr prognostiziertes Ergebnis getestet. Das Ergebnis hängt nicht davon ab, wie groß Ihr Datenbestand ist, solange er für relevante Datenpunkte mit guter Historie ausreicht.

Der „große“ Teil großer Daten führt die Leute in die Irre, wenn sie glauben, dass sie einen ziemlich großen Datensatz benötigen, um zu beginnen. Diese Optimierung entlarvt diesen Mythos.

Das andere Faszinierende an Googles Ansatz ist, dass sie nicht nur maschinelles Lernen nutzen, um die PUE aktueller Rechenzentren zu optimieren, sondern auch, um zukünftige Rechenzentren effektiv zu gestalten.

Wie bei vielen anderen physischen Systemen gibt es bestimmte Attribute, über die Sie die operative Kontrolle haben und die relativ einfach zu ändern sind, wie z. B: Kühlsysteme, Serverlast, etc. Es gibt jedoch einige Attribute, die Sie nur während der Entwurfsphase kontrollieren können, z.B. Physikalisches Layout:Wenn Sie sich für den Bau eines Rechenzentrums in Oregon entscheiden, können Sie es nicht einfach nach Colorado verlegen. Diese neuronalen Netze können einen wesentlichen Beitrag dazu leisten, im Voraus irreversible Entscheidungen zu treffen, die später nicht mehr abgestimmt werden können.

Eine der Herausforderungen bei neuronalen Netzen oder vielen anderen überwachten Lernmethoden besteht darin, dass es zu viel Zeit und Präzision braucht, um das Modell zu perfektionieren (zu trainieren).

Joe beschreibt es als „nichts weiter als eine Reihe von Differentialgleichungen“ und spielte das Modell herunter. Neuronale Netze sind nützlich, wenn man weiß, wonach man sucht – in diesem Fall, um die PUE zu senken. In vielen Fällen weiß man nicht einmal, wonach man sucht.

Google nennt 19 Attribute, die die PUE beeinflussen. Ich frage mich, wie sie diese Attribute in die engere Wahl gezogen haben. Meiner Erfahrung nach ist unbeaufsichtigtes maschinelles Lernen ein guter Ort, um Attribute in die engere Auswahl zu nehmen und dann mit überwachtem maschinellen Lernen fortzufahren, um sie zu verfeinern. Unbeaufsichtigtes maschinelles Lernen kombiniert mit überwachtem maschinellen Lernen kann bei richtiger Anwendung noch bessere Ergebnisse erzielen.

laplace

Qualitatives Signal in quantitativem Big-Data-Rauschen verfolgen

Joey Votto ist einer der besten Hitter in der MLB, der für Cincinnati Reds spielt. In letzter Zeit hat er viel Kritik dafür erhalten, dass er nicht in Streiks geschwungen ist, wenn Läufer auf der Basis sind. Fünf Uhr achtunddreißig beschlossen, diese Kritik mit Hilfe von Daten zu analysieren. Sie fanden diese Kritik wahr; Seine Schwünge auf Streikzonenplätzen, insbesondere bei Fastballs, sind deutlich zurückgegangen.

Aber alle sind sich einig, dass Votto immer noch ein großartiger Spieler ist. So sehe ich viele Big Data-Geschichten. Sie können erklären, „was“, aber Sie können nicht erklären, „warum“. In dieser Geschichte ging eigentlich niemand (das weiß ich) und fragte Votto: „Hey, warum schwingst du nicht all diese Fastballs in der Streikzone?“

Hier geht es nicht nur um Sport. Ich sehe das jeden Tag in meiner Arbeit in Unternehmenssoftware, während ich mit Kunden zusammenarbeite, um sie bei ihren Big-Data-Szenarien zu unterstützen, wie z. B. die Optimierung der Werbeprognosen im Einzelhandel, die Vorhersage der Kundenabwanderung in der Telekommunikation oder das Management des Risikoengagements in Banken.

Wenn Sie mehr Daten hinzufügen, entsteht bei diesen quantitativen Analysen viel mehr Rauschen, als wenn Sie sich einem Signal nähern. Über dieses Rauschen hinaus erwarten die Menschen, dass es ein perfektes Modell gibt, um es zu optimieren und vorherzusagen.

Eine quantitative Analyse allein hilft nicht, eine Nadel im Heuhaufen zu finden, aber sie hilft zu identifizieren, in welchem ​​Teil des Heuhaufens sich die Nadel verstecken könnte.
„In vielen Lebensbereichen werden Äußerungen von Unsicherheit fälschlicherweise als Zugeständnisse von Schwäche angesehen.“ – Nate Silver

Ich unterstütze und befürworte nachdrücklich die Philosophie von Nate Silver, „Vorhersagen“ als eine Reihe von Szenarien zu betrachten, an die eine Wahrscheinlichkeit gebunden ist, im Gegensatz zu einem deterministischen Modell. Wenn Sie nach einer präzisen binären Vorhersage suchen, werden Sie höchstwahrscheinlich keine bekommen.

Durch das Fixieren und Vervollkommnen eines Modells können Sie sich darauf konzentrieren, Ihr Modell an die früheren Daten anzupassen. Mit anderen Worten, Sie verbringen zu viel Zeit mit Signalen oder bereits vorhandenem Wissen, anstatt es als Ausgangspunkt (Bayesian) zu verwenden, und sind offen, so viele Experimente wie möglich durchzuführen, um Ihre Modelle unterwegs zu verfeinern. Der Kontext, der Ihre (quantitativen) Informationen in Wissen (Signal) umwandelt, ist Ihre qualitative Eignung und Einstellung zu dieser Analyse. Wenn Sie bereit sind, viele Fragen nach dem „Warum“ zu stellen, wenn Ihr Modell Ihnen „Was“ sagt, ist es wahrscheinlicher, dass Sie dem Signal, das Sie verfolgen, näher kommen.

Nicht alle quantitativen Analysen müssen einer qualitativen Übung folgen, um nach einem Signal zu suchen. Die Validierung einer bestehenden Hypothese ist eine der größten Big-Data-Waffen, die Entwickler verwenden, da SaaS es Entwicklern relativ einfach gemacht hat, ihre Anwendungen nicht nur zum Sammeln und Analysieren aller Arten von Nutzungsdaten zu instrumentieren, sondern auch eine Änderung auszulösen, um das Verhalten der Benutzer zu beeinflussen. Das jüngste Psychologieexperiment von Facebook, mit dem getestet wird, ob Emotionen ansteckend sind, hat viel Kritik ausgelöst.

Abgesehen von dieser quantitativen Analyse, die ethische und rechtliche Fragen berücksichtigt und Facebook beschuldigt, die Emotionen von 689.003 Nutzern für die Wissenschaft manipuliert zu haben, ist dies eine Bestätigung für ein bestehendes Phänomen in einer anderen Welt.

Priming ist ein bekanntes und bewährtes Konzept in der Psychologie, aber wir kannten keinen veröffentlichten Test, der dies in einem großen sozialen Online-Netzwerk beweist. Das Ziel hier war nicht, ein bestimmtes Signal zu verfolgen, sondern eine Hypothese zu validieren – ein „Was“ – für das das „Warum“ in einem anderen Bereich gut verstanden wurde.

Über das Foto: Laplace Transforms ist eine meiner bevorzugten mathematischen Gleichungen, da diese Gleichungen eine einfache Form komplexer Probleme (Exponentialgleichungen) erzeugen, die relativ einfach zu lösen ist. Sie helfen dabei, Probleme neu zu definieren, wenn Sie versuchen, das Signal zu empfangen.

Silicon Valley

Der Geist des Silicon Valley

Ein Framework, das ich verwende, um über Probleme nachzudenken, bei denen disruptive Technologien helfen könnten, basiert auf dem, was Donald Rumsfeld in seinen Memoiren Known und Unknown schrieb:

Berichte, die besagen, dass etwas nicht passiert ist, sind für mich immer interessant, weil es, wie wir wissen, bekannte Bekannte gibt; Es gibt Dinge, von denen wir wissen, dass wir sie kennen.

Wir wissen auch, dass es bekannte Unbekannte gibt; Das heißt, wir wissen, dass es einige Dinge gibt, die wir nicht wissen. Es gibt aber auch unbekannte Unbekannte, die wir nicht kennen, die wir nicht kennen. Und wenn man sich die Geschichte unseres Landes und anderer freier Länder anschaut, ist es letztere Kategorie, die die schwierigsten darstellt.

Vor einigen Jahrzehnten galt Technologie als Mittel zur Automatisierung manueller Prozesse und zur Steigerung der Effizienz. Während in der modernen Wirtschaft ein Großteil der Automatisierung eine Grundvoraussetzung ist, hat sich die Rolle der Technologie erheblich verändert, um eine einzigartige Differenzierung und einen Wettbewerbsvorteil gegenüber Branchenkollegen zu erzielen. Viele Leute arbeiten daran, Dinge besser, billiger und schneller zu machen, oder eine Kombination dieser drei. Dieser Ansatz – das Lösen von bekannten Problemen – bietet inkrementelle oder evolutionäre Innovationen, und der Markt honoriert dies.

Aber Silicon Valley denkt anders.

Das Silicon Valley liebt es, bekannten unbekannten Problemen nachzujagen, den Mondschüssen wie selbstfahrenden Fahrzeugen, die jedem einzelnen Menschen auf der Erde den Zugang zum Internet ermöglichen, und privaten Shuttles zum Weltraum. Diese BHAG sind es absolut wert, verfolgt zu werden. Bis zu einem gewissen Grad kennen und erleben wir das eigentliche Problem und können uns sogar vorstellen, wie eine mögliche Lösung aussehen könnte.

So wenig intuitiv es klingt, aber es ist relativ einfach, Unternehmer und Investoren zu einer Lösung zu bewegen, wenn sie ein Ergebnis visualisieren können, auch wenn die Lösung eines Problems einen enormen Aufwand bedeuten könnte.
„Wir können blind sein für das Offensichtliche und wir sind blind für unsere Blindheit.“ – Daniel Kahneman

Die meisten disruptiven Produkte oder Geschäftsmodelle haben einige Gemeinsamkeiten: Sie konzentrieren sich auf die latenten Bedürfnisse der Kunden, stellen sich neue Erfahrungen vor und liefern diese an die Kunden, und vor allem finden und lösen sie Probleme, von denen die Menschen nicht wussten, dass sie sie hatten und konnten Stellen Sie sich vor, es könnte gelöst werden – das Unbekannte Unbekannte.

Unbekanntem nachzujagen erfordert mutiges Denken und einen starken Glauben an Ihre Suche und Methoden, um dorthin zu gelangen. Das traditionelle analytische Denken führt Sie mit einem zweistelligen Wachstum in das nächste Quartal oder das nächste Jahr, ohne jedoch ein exponentielles Wachstum zu erzielen. Diese unbekannten Probleme erregen mich am meisten und ich arbeite sehr gerne daran. Unbekannt Unbekannt ist das Framework, mit dem ich das Potenzial von Disruptive-Technologien wie Big Data und das Internet der Dinge verstehe. Ich denke, wenn die Technologie ein Problem lösen kann, welches Problem Sie lösen möchten.

Die Jagd nach unbekannten Unbekannten ist keine Alternative für Mondschüsse. wir brauchen beides und in vielen Fällen beginnt das Lösen einer unbekannten unbekannten Reise damit, sie in eine bekannte unbekannte umzuwandeln.

Der Hauptunterschied zwischen den beiden liegt darin, wo Sie Ihre Zeit verbringen – auf der Suche nach einem Problem und dessen Umgestaltung oder auf der Suche nach einer bahnbrechenden Innovation für ein bekanntes blödes Problem. Eine sehr kleine Anzahl von Menschen kann über dieses gesamte Spektrum nachdenken. Die meisten Leute sind entweder gut darin, ein Problem zu finden oder es zu lösen, aber nicht in beiden.

Das Auffinden unbekannter Probleme erfordert einen qualitativen und einen abenteuerlichen Ansatz sowie die richtigen Werkzeuge, Techniken und Denkweisen. Fragen Sie die Leute einfach, welche Probleme sie lösen möchten.

Sie wissen nicht, dass sie Sie nicht weiterbringen. Ich bin ein leidenschaftlicher Design-Denker und ermutige andere, qualitative Methoden des Designs und des Design-Denkens zu üben, um unbekannte Unbekannte zu verfolgen.

Ich wünsche mir, dass wir wie Silicon Valley nicht den Geist verlieren, unbekannten Dingen nachzugehen, da es schwierig ist, Risikokapital zu beschaffen und Menschen für ein Problem zu gewinnen, von dem die Menschen nicht sicher wissen, dass es es gibt.

Menschen dazu zu befähigen, Dinge zu tun, die sie vorher nicht hätten tun können oder die sie sich sogar vorgestellt haben, ist ein Traum, den Unternehmer haben sollen.

Die dunkle Seite von Big Data

Es ist wieder passiert. Forscher haben herausgefunden, dass das Ad-Targeting-System von Google diskriminierend ist. Männlichen Webnutzern wurden eher hochbezahlte Anzeigen von Führungskräften gezeigt als weiblichen Besuchern.

Die Forscher haben einen Artikel veröffentlicht, der auf dem Symposium Privacy Enhancing Technologies in Philadelphia vorgestellt wurde.

Ich hatte vor fast zwei Jahren über die dunkle Seite von Big Data gebloggt. Latanya Sweeney, eine Harvard-Professorin, googelte ihren eigenen Namen, um eine Anzeige neben ihrem Namen zu finden, die darauf hindeutet, dass sie verhaftet wurde.

Sie grub tiefer und kam zu dem Schluss, dass sogenannte schwarz identifizierende Namen wesentlich wahrscheinlicher die Ziele für solche Anzeigen waren. Sie hat dies in ihrer Arbeit Diskriminierung bei der Online-Anzeigenschaltung dokumentiert. Google bestritt daraufhin ohnehin, dass AdWords diskriminierend ist, und Google bestritt derzeit, diskriminierend zu sein.

Ich möchte Google glauben. Ich glaube nicht, dass Google glaubt, dass sie diskriminierend sind. Und das ist die diskriminierende Schattenseite von Big Data. Ich habe nicht die Absicht, eine düstere Bild- und Schuldtechnologie zu malen, aber ich finde es beängstigend zu beobachten, dass sich die Technologie viel schneller ändert als die Fähigkeit der klügsten Köpfe, die Auswirkungen zu verstehen.

Eine Kombination aus massiv parallelem Rechnen und hochentwickelten Algorithmen, um diese Parallelität zu nutzen, sowie die Fähigkeit von Algorithmen, zu lernen und sich anzupassen, ohne dass manuelle Eingriffe relevanter werden, fast in Echtzeit, werden noch viel mehr solcher Probleme auftauchen lassen.

Als Kunde wissen Sie einfach nicht, ob die angebotenen Produkte oder Dienstleistungen zu einem bestimmten Preis auf diskriminierenden Praktiken beruhen.

Um dies weiter zu erschweren, wissen selbst Unternehmen in vielen Fällen nicht, ob Erkenntnisse, die sie aus einer Vielzahl interner und externer Daten gewinnen, diskriminierend sind oder nicht. Dies ist die dunkle Seite von Big Data.

Die Herausforderung bei Big Data besteht nicht in Big Data selbst, sondern darin, was Unternehmen mit Ihren Daten in Kombination mit anderen Daten tun können, ohne dass Sie genau wissen, wie Algorithmen funktionieren.

Um diskriminierende Praktiken zu verhindern, werden Beschäftigungspraktiken geprüft, um Chancengleichheit und Zulassung zu Hochschulen zu gewährleisten, um einen fairen Zulassungsprozess zu gewährleisten. Ich sehe jedoch nicht, wie diese Algorithmen und Datenpraktiken geprüft werden.

Disruptive Technologie stößt immer auf sozioökonomische Probleme, die vorher nicht existierten oder die nicht offensichtlich und unmittelbar bevorstanden. Manche Menschen sind verärgert, weil sie nicht genau verstehen, wie Technologie funktioniert.

Ich erinnere mich noch an Politiker, die versuchten, GMail dafür verantwortlich zu machen, dass sie E-Mails „gelesen“ hatten, um Werbung zu schalten. Ich glaube, dass Big Data eine weitere solche Störung ist, die ähnliche Probleme verursachen wird, und es ist enttäuschend, dass sich in den letzten zwei Jahren nicht viel geändert hat.

Es hat eine Weile gedauert, bis die Internetunternehmen herausgefunden haben, wie sie unsere persönlichen Daten schützen können, und sie sind noch nicht einmal dort, aber ihre Fähigkeit, die Art und Weise zu kontrollieren, wie diese Daten verwendet werden könnten, ist sehr fraglich. Vergessen wir nicht, dass Daten nicht diskriminieren.

Wir sollten diese Probleme nicht scheuen, sondern gemeinsam hart daran arbeiten, herauszustellen und zu vertiefen, was diese Probleme sein könnten, und sie anzugehen, anstatt die Technologie für das Böse verantwortlich zu machen.20

Mehr Infos zum Thema finden Sie hier: Big Data was ist der Nachteil