Enterprise Search Europe 2012

Over bijna 5 weken is het weer zover. De Enterprise Search Europe 2012 strijkt neer in Londen.

Wat kunt u verwachten:

A major highlight for this 2012 conference is the participation of three exceptional keynote speakers:Paul Doscher, CEO, Lucid Imagination; Matt Eichner , General Manager, Enterprise Search, Google; and Stephen E Arnold, President, Arnold IT. Their combined insights promise to deliver a truly holistic overview of the current state of enterprise search – from the perspectives of technology development, search giant, and ‘on the ground’ implementation.

Als u plannen heeft om binnen uw bedrijf een zoekoplossing te implementeren óf wilt weten hoe u een bestaande zoekoplossing kunt verbeteren is dit dé plek om aanwezig te zijn.

Meer informatie op www.enterprisesearcheurope.com.

Google houdt grote schoonmaak. Wat is de impact op de Enterprise oplossingen?

Sinds Larry Page het bewind van Eric Schmidt heeft overgenomen waait er een nieuwe wind door Google. Larry Page is duidelijk bezig om het bedrijf meer focus te geven en dit gaat gepaard met het beëindigen van diverse projecten en producten. De laatste berichtgeving hierover (Google gaat door met grote schoonmaak) is slechts een continuering van eerder genomen besluiten.

In dit artikel ga ik in op de “Enterprise” oplossingen van Google en meer specifiek op de Google Search Appliance (GSA).

Het lijkt erop dat Google de “bijproducten” wil afstoten. Als we kijken naar de Google Search Appliance, of meer algemeen de Enterprise Search activiteiten van Google, dan zouden we de volgende vragen kunnen stellen:

  • Hoe past de Google Enterprise Search oplossing in de strategie van het bedrijf?

en daarmee samenhangend:

  • Hoeveel omzet haalt Google wereldwijd uit de verkoop van GSA’s?
  • Hoeveel ontwikkelaars zijn bij de GSA ontwikkeling betrokken?

Hierbij moet ik gelijk één ding duidelijk maken: Er is niet veel bekend over de specifieke omzet die Google op dit moment haalt uit de Enterprise producten en zoals gezegd, meer specifiek uit de Google Search Appliance.

Wat ik wel weet is dat de “enterprise” sectie van Google een zéér klein deel van de omzet vertegenwoordigd (95% van de miljardenomzet is advertising en alle daaraan gelieerde activiteiten, zo ook Google.com, Google+ en Android). Alle activiteiten zijn gericht op het verkrijgen van persoonlijke data en profilering om meer gerichte en dus effectieve advertenties te kunnen verkopen.
De meeste andere activiteiten zijn ontstaan vanuit het overschot aan kapitaal en dus de mogelijkheid om geld en tijd te investeren in R&D en de ontwikkeling van nieuwe oplossingen (“iedere medewerker van Google mag een bepaald percentage (20%?) van zijn tijd spenderen aan R&D”), zoals de Google Search Appliance (“we kunnen zoeken op internet, waarom kunnen we dit niet ook binnen bedrijven?”).
De basisfunctionaliteit van GSA is gericht op het via webcrawling indexeren van intranetten, vergelijkbaar met wat Google.com doet op internet. Dat doet ie dan ook goed. Het ontbreken van metadata is op internet niet belangrijk. Daar gaat het om de populariteit van sites en pagina’s (hoe vaak wordt er gelinkt naar pagina’s) en daarmee de authoritativiteit van bepaalde sites (een site waar waar naar wordt verwezen is per definitie een authoriteit). Die algoritmes gaan binnen een organisatie echter niet op (slechte link-kwaliteit, heterogene bronnen). Sterker nog… content die wordt gepushed via connectoren hebben per definitie een lage relevantie door het onbreken van aanknopingspunten voor het “page-rank” algoritme).
Die innovaties en R&D producten zijn de afgelopen jaren gelanceerd op Google Labs. Dat is nou juist wat Page aan het verminderen is.
Een teken aan de wand is het zomaar laten vallen van de integratie met Google Apps op de Search Appliance. Bedrijven konden eerst met de GSA gelijktijdig door hun interne informatie én de data die is opgeslagen in “the cloud” doorzoeken. Nu niet meer.
Naar mijn mening past de GSA niet binnen de lange termijn visie van Google. Ze willen zoveel mogelijk alle data in de cloud krijgen, ook bedrijfsdata. Dat is ook schaalbaar, gezien hun datacenters en gedistribueerde data-opslagsystemen.
Voor wat betreft de functionaliteit lopen ze met hun enterprise search oplossing sterk achter bij de “pure enterprise search infrastructure vendors” zoals Autonomy, Attivio, Endeca, Microsoft FAST, Exalead en de meer gespecialiseerde vendors zoals Zylab, MindBreeze, Polyspot etc. (denk aan de opmerking die ik eerder maakte over het ontbreken van “page-rank data” om de relevantie op te baseren). De GSA kan verder (nog) niet voorzien in “compliance” regels zoals het leveren van exacte aantallen gevonden documenten of het zoeken op delen van strings (zoeken met een * om de in het nederlands zo veel voorkomenden samentrekkingen aan te kunnen (compound words)). Google werkt hier op dit moment overigens wel hard aan.
Gezien de status van hun connector framework (afhankelijk van third parties, zeer gefragmenteerd en vaak onduidelijk wat kan en wat niet kan) en de architectuur van de GSA (alles op de box) vraag ik me af hoeveel ze willen investeren in de ontwikkeling van deze oplossing. Vergelijk dat met de andere oplossingen die een “plugable pipeline” (Autonomy, FAST) hebben om allerlei bewerkingen op de content te doen voordat de informatie aan de indexen wordt toegevoegd. Dat kan met de GSA oplossing niet, omdat de “document filters” (de techniek die binaire documenten zoals Word, PDF etc. omzetten naar plain tekst) op de GSA zelf zijn geimplementeerd. Als je dit met de GSA wilt doen, dan moet je dus zelf een pipeline opzetten die gebruik maakt van (vaak betaalde) externe document filters waardoor je extra (dubbele) investeringen moet doen.
Kijk ook naar de SharePoint Search oplossing. Microsoft investeert in het positioneren van SharePoint Search (powered by FAST) als “enterprise Search” oplossing. Daarbij worden de mogelijkheden van SharePoint iedere keer beter en volwassener. Google probeert bij te blijven met de ontwikkelingen van SharePoint, maar dat wordt steeds moeilijker.

De zoekmogelijkheden van SharePoint 2010 zijn al een stuk beter dan de zoekmogelijkheden in SharePoint 2007 (laat staan 2003) en Google haalt nog steeds aan dat zij een betere zoekervaring kan bieden voor SharePoint 2003 en 2007.
Ze lopen daarom achter en gebruiken argumenten die met de introductie van SharePoint 2010 voor een groot deel niet meer op gaan (zeker in combinatie met FAST Search 4 SharePoint (FS4SP).
Uiteraard heb ik het hier over de inzet van FAST Search 4 SharePoint als een Enterprise Search oplossing die verder gaat dan de informatie die in SharePoint wordt beheerd. SharePoint is slechts één van de informatiesystemen die binnen organisaties wordt gebruikt.
Als laatste het licentiemodel van de GSA. Het feit dat je als organisatie iedere 2 of 3 jaar (Google wil van de 2 jaar optie af) weer een investeringsbeslissing moet nemen (denk aan grote implementaties waarmee tonnen of zelf miljoenen aan licentiegelden zijn gemoeid) is een risico. Mijn ervaring met Autonomy is dat als een organisatie kiest voor Autonomy, zij dit voor meer dan 6 jaar ongemerkt doen. Bij de andere vendors koop je een “perpetual” licentie en betaalt van dat bedrag 20% per jaar.
Afhankelijk van hoe een organisatie dit financieel in de boeken zet, kan dit nogal wat betekenen.
Bij een commerciële organisatie zou je de kosten voor de GSA oplossing niet in één keer kunnen nemen, maar afschrijven over 3 jaar. Daarna kan je door de reservering die daarbij ontstaat, na 3 jaar weer een nieuwe investering kunnen doen. De kosten blijven dan gelijk over de jaren. Voor een overheidsinstelling gaat dit niet op door de toepassing van het “budget stelsel”. Dit is gebaseerd op kasuitgaven en worden (kunnen) niet worden afgeschreven.
Het model van de GSA kan ook niet anders omdat het om hard- én software gaat. Software schrijf je niet af. Je neemt de kosten van 20% gewoon per jaar en de vervanging van de hardware zit in het IT-budget. Hardware moet echter vervangen worden. Google had ook kunnen zeggen “Je krijgt een perpetual licentie én we geven iedere 3 jaar nieuwe hardware”. In plaats daarvan hebben ze gezegd “Je krijgt een licentie van 3 jaar en daarna moet je een nieuwe licentie én hardware aanschaffen”.
Google brengt dit dus als “heel transparant”, maar werpt daarmee wel veel vragen op in vergelijking met andere enterprise oplossingen waarbij je gewoon jaarlijks of per gebruiker een bepaald bedrag betaald.
In TCO berekingen komt de Google Search Appliance overigens wel beter uit de vergelijking. Wanneer je de kosten bekijkt over een periode van 6 of meer jaar, dan valt de 3-jaarlijkse investering beter uit dan de jaarlijkse 20% maintenance fee die software leveranciers rekenen. Dit gaat echter ook weer deels op, omdat de kosten voor een zeer grote Google implementatie (5 miljoen en hoger) meestal hoger zijn dan de kosten voor een oplossing van bijvoorbeeld Autonomy, FAST of Attivio.
Ik ben benieuwd naar de meningen van bedrijven of andere search consultants ten aanzien van dit onderwerp:
Is de Google Enterprise Search oplossing een blijver binnen de plannen van Google of niet?

Reactie van Lucid Imagination op CloudSearch van Amazon

Enkele dagen na de lancering van Amazon CloudSearch komt Lucid Imagination met een reactie:

Cloud Search: a David and Goliath battle”.

Lucid Imagination heeft ook een “Hosted Search Solution”, “LucidWorks Cloud” en ze voelen de hete adem van Amazon in hun nek.

Lucid Imagination haast zich door te zeggen dat het niet om de techniek gaat, maar om het bieden van een totaaloplossing aan de klant.
Daar hoort bij het verkennen en aansluiten van bronnen, zorgen dat alles goed beveiligd is, én het leveren van een goede user experience.

Daar sluiten wij ons bij aan. Bij Search gaat het immers om drie dingen: De gebruiker, de content en de connectoren.

Amazon levert echter een zeer goede technische oplossing waar schitterende zoekapplicaties mee te maken zijn.
Het is wel zeer jammer dat Amazon CloudSearch vooralsnog niet één connector aanbiedt. Wij zouden het niet meer dan normaal vinden wanneer de oplossing van Amazon in ieder geval een webcrawler aan zou bieden.
Dat zou organisaties in staat stellen om snel en eenvoudig een zoektoepassing te maken voor hun publieke internetsites.

In Nederland zijn ook goede implementatiepartners te vinden, zoals InfoKnowledge, die organisaties kunnen helpen om de stap naar de “Cloud” te maken. Weloverwogen en oplossingsgericht.

Oracle kondigt “Endeca Information Discovery” aan

Het is blijkbaar geen gloednieuwe aankondiging (het bericht is van 4 april 2012) maar op MarketWire staat het bericht “Oracle Announces General Availability of Oracle Endeca Information Discovery”.

Net als alle andere “Search vendors” heeft Oracle weer een leuke insteek gevonden om hun product het predicaat “Worlds first” te kunnen geven: het is een “Enterprise Data Discovery Platform”.

Oracle Endeca Information Discovery is the enterprise category leader that provides immediate and significant added value to our customers.

De differentiatiefactoren (leuk scrabble woord):

  • Het organiseert data automatisch, gebaseerd op de het model van de data (?)
    Hierdoor hoef je niet van te voren na te denken over datamodellen
  • Het is makkelijk in het gebruik voor consumenten omdat het de enige oplossing is die is geboren in de consumenten e-commerce markt
  • Het complementeert de vertrouwde oplossingen van Oracle zoals geleverd door de Oracle Business Intelligence Foundation

Leveranciers weten hun product zo te categoriseren dat het een “Worlds first and only” is:

  • Attivio AIE
    ”Unified Information Access Platform”
  • Autonomy IDOL
    ”Meaning based Computing / Governance / Marketing”
  • Exalead Cloudview
    ”Search Based Applications”
  • Fabasoft MindBreeze
    ”The center of excellence for your company’s knowledge”
  • Google Search Appliance
    ”Enterprise Search, out-of-the-box”
  • Lucid Imagination LWE
    ”the search platform built on Apache Solr/Lucene that accelerates & simplifies development of highly accurate, scalable, cost-effective search applications”
  • Microsoft Enterprise Search
    ”Platform for building custom search-driven applications”
  • Vivisimo Velocity
    ”Information Optimization Platform”
  • ZyLab
    ”Alleen ZyLAB is gemaakt voor 100% recall”

Alles over het “heilige zoekveld”

SmashingMagazine heeft een zeer uitgebreid artikel gewijd aan de “Holy Searchbox”.

On content-heavy websites, the search box is often the most frequently used design element. From a usability point of view, irritated users use the search function as a last option when looking for specific information on a website. If a website’s content is not organized properly, an efficient search engine is not only helpful but crucial, even for basic website navigation. In fact, search is the user’s lifeline to mastering complex websites. The best designs offer a simple search box on the home page and play down advanced search and scoping.

Vrijwel alle aspecten van de searchbox komen aan de orde:

  • achtergrond en doel
  • design
  • do’s en do nots

De inhoud van dit artikel is duidelijk gebaseerd op het boek “Search Patterns” van Peter Morville.

Amazon lanceert “CloudSearch”

Afgelopen week lanceerde Amazon haar “CloudSearch” oplossing: http://aws.amazon.com/cloudsearch/. Gebaseerd op de bestaande EC2 en S3 infrastructuur biedt deze hosted search solution een zeer flexibele en schaalbare oplossing voor zoektoepassingen binnen het MKB en websites.

De onderliggende zoektechnologie wordt gevormd door de open source search engine Solr/Lucene. Amazon heeft hier omheen een beheertoepassing gebouwd, waardoor het zeer eenvoudig is om documenten te indexeren en instellingen te veranderen.

De CloudSearch oplossing kan niet zelf toegang krijgen tot de bronnen om de informatie aan de zoekindexen toe te voegen.
Hiervoor zijn connectoren nodig die in de infrastructuur van de organisatie draaien of die elders worden gehost (ook in de cloud dus).

De oplossing is niet bedoeld voor Secure Enterprise Search. Om gebruikers te kunnen authenticeren en toegang tot beveiligde informatie te autoriseren is toegang tot de lokale infrastructuur nodig.

Internationaal heeft SearchTechnologies al aangekondigd dat zij diensten leveren om organisaties te ondersteunen bij het implementeren van zoekoplossingen op basis van deze gehoste zoekomgeving.

“The connectors are based on Search Technologies’ Aspire content processing framework and are available for a wide range of repositories including file systems, relational databases, SharePoint, Documentum and Amazon S3 Buckets. Search Technologies says Aspire enables both unstructured and structured content from across the enterprise to be securely accessed, cleaned, normalized and enriched. Aspire further simplifies implementation of new content consuming applications, says Search Technologies.”

In Nederland levert InfoKnowlegde diensten en producten om lokale informatiebronnen aan te sluiten op de Amazon CloudSearch infrastructuur.

De anatomie van een zoek- en resultaatpagina

Dit document bevat informatie over de zoekfuncties die op een SERP (Search Engine Result Page) zouden kunnen staan.
Op basis van deze informatie kan een Interactie-ontwerper of visueel vormgever bepalen welke ruime en locatie beschikbaar moet worden gemaakt om de specifieke functies een plek te geven in een uitgebalanceerd ontwerp dat integreert met de rest van een website.

Onderstaande afbeeldingen vormen samen één pagina. De onderdelen zijn geen “menu-kaart”!
ze moeten allen een uitgebalanceerde plek krijgen om de bezoeker zo goed mogelijk naar een antwoord op zijn of haar vraag te leiden.

1.    Header van de site
Meestal voorzien van hoofdnavigatie / sectie-indeling van de site.
Vaak zit hier ook al een tweede niveau in zodat een gebruiker met een minimaal aantal klikken bij de content kan komen.
De hoofd- en subnavigatie is meestal een indeling in secties en onderwerpen en wordt ook wel aangeduid met de “informatie-architectuur” van de website.
Deze informatie-architectuur (waar bepaalde content op site “hoort” of vandaan komt) moet ook in de zoekresultaten terugkomen, bijvoorbeeld als filter en als metadata bij de resultaten.

2.    Algemene Zoekbox
De alomtegenwoordige zoekbox met de knop “zoek”.
Gebruikers verwachten de zoekbox vrijwel altijd rechtsboven op alle pagina’s binnen de site.

3.    “Scoped search”
Een pull-down met de mogelijkheid voor gebruikers om direct in een deel van de site te zoeken. Uiteraard kan deze keuze ook terugkomen bij de zoekresultaten waar hij meer als “filter” of “facet” werkt.
Voordeel van een “scoped search” optie is dat een gebruiker meestal al naar een bepaalde sectie in de site is genavigeerd en dat deze selectie dus al impliciet kan worden meegenomen als “scope” voor de uit te voeren zoekvraag. De betreffende “sectie” staat dan voor-ingevuld in de pull-down.

4.    Zoekbox (na het uitvoeren van een zoekvraag in de algemene zoekbox)
De “algemene zoekbox” staat op iedere pagina van de website. Als een bezoeker daar een zoekvraag heeft uitgevoerd, verdwijnt de algemene zoekbox meestal en wordt deze vervangen door een grotere zoekbox die onderdeel is van de SERP.

5.    Autocomplete / autosuggest
Bekend van Google.com en later door veel andere sites ook overgenomen.
De zoekmachine vult de zoekvraag van de gebruiker automatisch aan terwijl hij of zij de zoekvraag nog aan het formuleren is.

6.    Zoek-“Tools”
Niet opvallende links naar aparte pagina’s met informatie over de manier waarop gezicht kan worden, door welke informatie gezocht wordt, de mogelijkheid om “uitgebreid” te zoeken enz.

7.    Feedback aan de gebruiker
De zoekomgeving voert vele functies uit waarvan een terugkoppeling aan de bezoeker moet worden gegeven. Denk hierbij aan:
– Spelsuggestie (indien de zoekmachine niets vindt vanwege een verkeerd gespeld woord: Bedoelde U)
– Gerelateerde zoekopdrachten (ik zoek op “verklaring omtrent gedrag” en de zoekfunctie geeft terug “U kunt ook zoeken op VOG”.
– Foutmeldingen en andere terugkoppeling / dialoog met de bezoeker.

8.    Terugkoppeling resultaten, filters enz.
De zoekomgeving moet de bezoeker laten weten hoeveel resultaten er (ongeveer) zijn gevonden (reden om de zoekvraag te verfijnen of juist breder te maken), welke filters actief zijn (via uitgebreid zoeken of geselecteerde facetten (links) of een datumbeperking.
Extra functies op deze plek zijn ook het kunnen instellen van een “Alert” op de zoekvraag zodat de gebruiker automatisch nieuw toegevoegde documenten via e-mail toegestuurd kan krijgen als deze aan zijn of haar zoekvraag voldoet (denk aan vergunningen etc.)

9.    Keymatches
Net als op Google.com is het soms nodig of vaak handig om bepaalde “favoriete” documenten of informatie expliciet bij de bezoeker onder de aandacht te brengen als hij of zij een bepaalde zoekvraag stelt. Het is zo mogelijk om zeer specifieke content onder de aandacht te brengen.
De volgorde van de zoekresultaten wordt hiermee niet beïnvloed. De “Keymatches” staan los van wat ook wel de “organische” zoekresultaten wordt genoemd.
Door zorgvuldige analyse van zoekrapporten (waar zoeken gebruikers op) kan worden bepaald voor welke zoekopdrachten Keymatches moet worden gedefinieerd.

10.    Zoekresultaten
De zoekresultaten zijn het gevolg van de zoekopdracht van de gebruiker en de geavanceerde algoritmes die de search engine gebruikt om te bepalen welke informatie het meest relevant is. De search engine kan hierbij ook rekening houden met het klikgedrag van de gebruiker (welke documenten worden het meest geraadpleegd), zijn of haar profiel en zoekhistorie.
Een gebruiker moet in één oogopslag kunnen zien waarom een bepaalde document in de resultaatlijst staat. Het is van belang om minimaal de volgende gegevens per resultaat te tonen:
– Duidelijke titel
– Contextuele samenvatting met terugkoppeling van de zoekvraag t.o.v. het gevonden document
– Datum om de actualiteit te kunnen bepalen
– klikbare metadata zodat de gebruiker kan zien hoe het resultaat in de informatiestructuur van de site past en het resultaat direct kan filteren
– (deel van) URL van het resultaat zodat de gebruiker de plek in de navigatiestructuur van de site kan bepalen.
– Eventuele andere “actionable” functies zoals het doorsturen van een resultaat, printen etc.

Op basis van deze contextuele gegevens kan de gebruiker besluiten om zijn zoekvraag aan te passen.

11.    Filters / facetten
Informatie op een website of in een informatiesysteem is meestal ingedeeld in secties / categorieën, onderwerpen etc. Door het aanbieden van (dynamische) filters op een resultaatlijst kan de gebruiker de zoekvraag beperken tot een deel van de content.
Het is van essentieel belang dat de indeling aansluiting heeft bij de indeling (Informatie Architectuur) van de content op de website zodat de gebruiker houvast heeft.
Facetten worden samengesteld op basis van metadata die is vastgelegd bij de documenten in de content. Omdat een facet alleen kijkt naar de waardes van documenten in de resultaatset, wordt het toepassen van een filter die 0 resultaten oplevert voorkomen.
Dit is tevens het grote voordeel van het gebruik van facetten (post-filtering) t.o.v. een formulier waar de gebruiker van te voren allerlei combinaties van velden en waardes kan specificeren (pre-selectie). In feite gaat de zoekapplicatie een dialoog aan met de bezoeker.

12.    Veel gezocht
Het gedrag van andere bezoekers op een website kan zeer behulpzaam zijn voor iemand die informatie zoekt. Bezoekers leren van elkaar om zoekvragen te formuleren.
De beheerder van de site kan door analyse van de zoekrapporten te weten komen waar  bezoekers vaak op zoeken om zo patronen te herkennen en bezoekers naar de juiste content te sturen. Het stellen van “verkeerde” vragen kan zo ook worden voorkomen.
Dit onderdeel kan automatisch worden gevuld of door de redactie van de website / beheerder van de zoekfunctie.

13.    Tag-cloud
Een Tag-Cloud is in feite een andere weergave van een lijstje met filters / facetten.
Een Tag-Cloud is het krachtigst voor een filter / indeling op basis van een inhoudelijk kenmerk (indeling op onderwerp bijv.) van content.
Door het variëren van font-grootte ziet de bezoeker in één oogopslag welke onderwerpen in de resultaten voorkomen, in relatie tot zijn eigen zoekvraag.
De onderwerpen in de tag-cloud zijn aanklikbaar waarna er in feite een filter wordt toegepast op de resultaatset.

14.    “Snel naar”
Redactioneel onderdeel dat de beheerder van de site de mogelijkheid heeft om een bezoeker altijd een goede start te bieden voor zijn zoektocht, ook als de initiële zoekvraag 0 resultaten oplevert. Denk aan:
– ABC-index / sitemap
– Pagina met contactgegevens
– Pagina met FAQ’s
– Campagnes
– etc.

 

15.    Periodeselectie
In plaats van het aanbieden van een selectie op “datum van – tot” is het voor een bezoeker veel sneller om een zoekperiode aan te geven die het meest voor de hand ligt voor de content van de website / het informatiesysteem.
Het is van belang dat alle content op de website / het informatiesysteem één unieke datum bevat. Keuzes hierbij zijn:
– publicatiedatum (meest gebruikt)
– modificatiedatum
– Indexeringsdatum
– creatiedatum

16.    Datumselectie
Voor bepaalde zoekvragen / contenttypen moet de bezoeker heel specifiek een datum van – tot aan kunnen geven.

17.    Gerelateerde zoekopdrachten
De search engine kan zoekopdrachten voorstellen met woorden die vaak in combinatie met de zoekopdracht van de bezoeker voorkomen in de documenten zelf.
Dit helpt de gebruiker bij het anders formuleren (specifieker of juist algemener) van de initiële zoekopdracht.
Het is wederom een voorbeeld van de dialoog die de zoekomgeving aan gaat met de bezoeker om hem het vertrouwen te geven dat hij of zij “op de goede weg zit”.

18.    Paginanavigatie
Vrijwel altijd zal een zoekvraag meer dan 10 resultaten opleveren.
Het is daarom noodzakelijk om de gebruiker de mogelijkheid te geven om alle resultaten te zien. Via de paginanavigatie kan de gebruiker doorbladeren naar resultaat 11 t/m 20 en verder.

19.    Zoekhistorie
Bezoekers zullen veelvuldig gebruik maken van de zoekfunctie om informatie te kunnen vinden. Daarbij zullen ze verschillende zoekvragen formuleren waarbij de zoekomgeving hen helpt om de juiste vragen te stellen.
Als een site of informatiesysteem veel verschillende soorten informatie bevat zullen de bezoekers ook veel verschillende vragen stellen.
Het is voor een bezoeker niet te doen om te onthouden waar hij of zij in één sessie of over sessies heen allemaal op heeft gezocht en welke zoekvraag de beste resultaten op heeft geleverd.
Het bijhouden en tonen van de zoekhistorie van een bezoeker stelt hem of haar in staat om terug te keren naar de resultaten van een eerdere zoekvraag.  Dit schept vertrouwen in de zoekfunctionaliteit omdat eerdere resultaten consequent gereproduceerd kunnen worden.

20.    Feedback
Een bezoeker moet de mogelijkheid hebben om makkelijk in contact te treden met de beheerder van de zoekfunctie als hij of zij iets niet kan vinden of juist wil vermelden dat de resultaten goed waren.
De zoekfunctie maakt het mogelijk om via een dialoog tot de juiste resultaten te komen. Deze dialoog kan niet zonder de mogelijkheid in contact te treden met een persoon. De feedback functie geeft deze mogelijkheid.
In het voorbeeld ontbreekt een veld voor het opgeven van het e-mailadres of het telefoonnummer van de bezoeker. Die moet uiteraard wel aanwezig zijn.

 

Braindrain: Het behouden van de arbeidservaring tijdens de vergrijzing

De aanstaande vergrijzing van de babyboomgeneratie en de daarmee verbonden pensionering van deze generatie zal de komende decennia ’s een zware wissel gaan trekken op veel organisaties. Er zal sprake zijn van een relatief groot verlies aan ervaring in de vorm van actieve kennis en kunde, de Braindrain. Deze kennis en kunde vormen de arbeidservaring van veel organisaties. Kennis intensieve organisaties moeten zich gaan voorbereiden op dit komende verlies van arbeidservaring.

De arbeidservaring ligt op geslagen in de hoofden van de werknemers en in de digitale fingerprint die ze achterlaten in de diverse informatiesystemen van organisaties. Ondanks het feit dat organisaties veel tijd en energie steken in het gestructureerd vastleggen van informatie zal dit niet genoeg zijn om het verlies aan arbeidservaring op te vangen. De digitale fingerprint raakt namelijk alle informatiesystemen van een organisatie en dan vooral de samenhang, dus de relaties tussen gegevens. Deze relaties zijn in veel gevallen deels in procesbeschrijvingen of geheel niet vastgelegd en bevinden zich uitsluitend in de hoofden van de werknemers.

De relatie tussen de kennis en kunde is de knowhow van een organisatie, de knowhow is hetgeen waarop de focus moet worden gelegd.

Veel informatie en kennis zit bijvoorbeeld in persoonlijke folders en emails, maar hoe kom je nu aan de juiste informatie uit deze systemen? De werknemer weet meestal exact welke informatie aanwezig is. De werknemer zal dan moeten helpen om de belangrijke en interessante informatie veilig te stellen.

Organisaties moeten véél actiever worden in het vastleggen van de kennis en kunde en dan vooral op de relaties tussen deze elementen. Wachten tot de werknemer uit dienst gaat is dan ook erg onverstandig. Dit moet gebeuren in de tijd dat de werknemer nog actief in dienst is. Door op tijd te reageren kan deze kennis worden vastgelegd en verwerkt in een knowhowsysteem die door andere en toekomstige werknemers van de organisatie gebruikt kunnen worden. Omdat van te voren moeilijk is te bepalen welke specifieke arbeidservaring in de toekomst van belang zal zijn moet de arbeidservaring worden opgeslagen in een systeem dat, via later te definiëren vragen, inzage biedt in de opgeslagen knowhow.

Je moet dus als het ware kunnen zoeken in de arbeidservaring van een werknemer. De vraag hoe werknemer Y situatie X zou hebben aangepakt moet dan te beantwoorden zijn. Het antwoord zal vaak niet exact zijn maar wel zorgen voor een veel betere en onderbouwde uitgangssituatie voor het aanpakken van situatie X. De kennis van werknemers dient op een aantal manier in kaart worden gebracht:

  1. Via interviews kan een beeld/structuur worden geschetst van de activiteiten en informatiebehoefte van een werknemer. Dit beeld kan worden vastgelegd in een kenniskaart.
  2. Door middel van data en text mining kan er structuur worden aangebracht in de opgeslagen fingerprint.
  3. Door middel van technische mogelijkheden waarmee trends in informatie zijn te ontdekken en door op basis van deze trends belangrijke informatie veilig te stellen.
  4. Het actief gaan vastleggen van handelingen in logsystemen. Uit loggegevens kunnen patronen worden gehaald die gebruikt kunnen worden bij het beschrijven de in de opgeslagen fingerprints en kenniskaarten.

Het resultaat van deze inventarisaties kan vervolgens worden ondergebracht in een kennisdatabank. De kennisdatabank zal een referentiesysteem zijn waarin op gestructureerde wijze de kennis van een werknemer kan worden geplot en op een later moment kan worden gebruikt bij het zoeken in de arbeidservaring van gepensioneerde werknemers. Naast medewerkers die vertrekken, vrijwillig of gedwongen, kan deze systematiek ook worden toegepast bij uw andere medewerkers.

Het vastleggen van kennisprofielen op basis van documenten biedt de mogelijkheid om virtuele teams te maken met deze profielen.

Achtergrond auteurs:

Jan Verweij en Victor van der Lely hebben ruim 11 jaar ervaring op het gebied van informatiemanagement met als specialiteit het implementeren van Enterprise Search oplossingen.

Vanuit hun ervaring weten zij dat veel informatie ontoegankelijk raakt door het vertrek van werknemers of wijzigen van organisatiestructuren die worden vertaald naar rechtenstructuren van informatiesystemen.

Jan Verweij is adviseur bij Reeleez
M: jan@reeleez.nl
T: +31(0)877847476

Victor van der Lely is adviseur bij InfoKnowledge
M: victor@infoknowledge.nl
T: +31(0)302682282