Merge remote-tracking branch 'origin/release-v4.6.1'
[WRF.git] / var / da / da_main / da_esmf_init.inc
blobf254cea6711c7823cc56ef081605d26b9a0e0e2b
1 subroutine da_esmf_init( gcomp, importState, exportState, clock, rc )
3    !-----------------------------------------------------------------------
4    ! Purpose: WRFVAR init routine.
5    !
6    !     The arguments are:
7    !       gcomp           Component
8    !       importState     Importstate
9    !       exportState     Exportstate
10    !       clock           External clock
11    !       rc              Return code; equals ESMF_SUCCESS if there are no
12    !                       errors, otherwise ESMF_FAILURE.
13    !
14    ! Program_name, a global variable defined in frame/module_domain.F, is
15    ! set, then a routine <a href=init_modules.html>init_modules</a> is
16    ! called. This calls all the init programs that are provided by the
17    ! modules that are linked into WRFVAR.  These include initialization of
18    ! external I/O packages.   Also, some key initializations for
19    ! distributed-memory parallelism occur here if DM_PARALLEL is specified
20    ! in the compile: setting up I/O quilt processes to act as I/O servers
21    ! and dividing up MPI communicators among those as well as initializing
22    ! external communication packages.
23    !-----------------------------------------------------------------------
25    implicit none
27    type(ESMF_GridComp), intent(inout) :: gcomp
28    type(ESMF_State),    intent(inout) :: importState, exportState
29    type(ESMF_Clock),    intent(inout) :: clock
30    integer,             intent(out)   :: rc
32    program_name = //"WRFVAR "//release_version
34    !  Get the NAMELIST data for input.
36    call init_modules(2)   ! Phase 2 resumes after mpi_init() (if it is called)
37                           ! Phase 1 is called before ESMF starts up
39    !<DESCRIPTION>
40    ! The wrf namelist.input file is read and stored in the use associated
41    ! structure model_config_rec, defined in frame/module_configure.F, by the
42    ! call to <a href=initial_config.html>initial_config</a>.  On distributed
43    ! memory parallel runs this is done only on one processor, and then
44    ! broadcast as a buffer.  For distributed-memory, the broadcast of the
45    ! configuration information is accomplished by first putting the
46    ! configuration information into a buffer (<a
47    ! href=get_config_as_buffer.html>get_config_as_buffer</a>), broadcasting
48    ! the buffer, then setting the configuration information (<a
49    ! href=set_config_as_buffer.html>set_config_as_buffer</a>).
50    !
51    !</DESCRIPTION>
53 #ifdef DM_PARALLEL
54    if ( rootproc ) then
55       call initial_config
56    end if
57    call get_config_as_buffer( configbuf, configbuflen, nbytes )
58    call wrf_dm_bcast_bytes( configbuf, nbytes )
59    call set_config_as_buffer( configbuf, configbuflen )
60    call wrf_dm_initialize
61 #else
62    call initial_config
63 #endif
65    !<DESCRIPTION>
66    ! Among the configuration variables read from the namelist is
67    ! debug_level. This is retrieved using nl_get_debug_level (Registry
68    ! generated and defined in frame/module_configure.F).  The value is then
69    ! used to set the debug-print information level for use by <a
70    ! href=wrf_debug.html>wrf_debug</a> throughout the code. Debug_level
71    ! of zero (the default) causes no information to be printed when the
72    ! model runs. The higher the number (up to 1000) the more information is
73    ! printed.
74    ! 
75    !</DESCRIPTION>
77    call nl_get_debug_level ( 1, debug_level )
78    call set_wrf_debug_level ( debug_level )
80    ! allocated and configure the mother domain
82    nullify( null_domain )
84    call nl_get_max_dom( 1, max_dom )
85    if ( max_dom > 1 ) then
86       call da_error(__FILE__,__LINE__, (/'nesting not available for wrfvar'/))
87    end if
89    !<DESCRIPTION>
90    ! The top-most domain in the simulation is then allocated and configured
91    ! by calling <a href=alloc_and_configure_domain.html>alloc_and_configure_domain</a>.
92    ! Here, in the case of this root domain, the routine is passed the
93    ! globally accessible pointer to type(domain), head_grid, defined in
94    ! frame/module_domain.F.  The parent is null and the child index is given
95    ! as negative, signifying none.  Afterwards, because the call to
96    ! alloc_and_configure_domain may modify the model's configuration data
97    ! stored in model_config_rec, the configuration information is again
98    ! repacked into a buffer, broadcast, and unpacked on each task (for
99    ! DM_PARALLEL compiles). The call to <a
100    ! href=setup_timekeeping.html>setup_timekeeping</a> for head_grid relies
101    ! on this configuration information, and it must occur after the second
102    ! broadcast of the configuration information.
103    ! 
104    !</DESCRIPTION>
105    call       da_message ((/program_name/))
107    call da_trace("da_esmf_init",message="calling alloc_and_configure_domain")
108    call alloc_and_configure_domain ( domain_id  = 1 ,                  &
109                                     grid       = head_grid ,          &
110                                     parent     = null_domain ,        &
111                                     kid        = -1                   )
113    call da_trace("da_esmf_init",message="callingmodel_to_grid_config_rec")
114    call model_to_grid_config_rec ( head_grid%id , model_config_rec , config_flags )
116    call da_trace("da_esmf_init",message="calling set_scalar_indices_from_config")
117    call set_scalar_indices_from_config ( head_grid%id , idum1, idum2 )
119    call da_trace("da_esmf_init",message="calling init_wrfio")
120    call init_wrfio
122 #ifdef DM_PARALLEL
123    call get_config_as_buffer( configbuf, configbuflen, nbytes )
124    call wrf_dm_bcast_bytes( configbuf, nbytes )
125    call set_config_as_buffer( configbuf, configbuflen )
126 #endif
128    call setup_timekeeping (head_grid)
130    !<DESCRIPTION>
131    ! The head grid is initialized with read-in data through the call to <a
132    ! href=med_initialdata_input.html>med_initialdata_input</a>, which is
133    ! passed the pointer head_grid and a locally declared configuration data
134    ! structure, config_flags, that is set by a call to <a
135    ! href=model_to_grid_config_rec.html>model_to_grid_config_rec</a>.  It is
136    ! also necessary that the indices into the 4d tracer arrays such as
137    ! moisture be set with a call to <a
138    ! href=set_scalar_indices_from_config.html>set_scalar_indices_from_config</a>
139    ! prior to the call to initialize the domain.  Both of these calls are
140    ! told which domain they are setting up for by passing in the integer id
141    ! of the head domain as <tt>head_grid%id</tt>, which is 1 for the
142    ! top-most domain.
143    ! 
144    ! In the case that write_restart_at_0h is set to true in the namelist,
145    ! the model simply generates a restart file using the just read-in data
146    ! and then shuts down. This is used for ensemble breeding, and is not
147    ! typically enabled.
148    ! 
149    !</DESCRIPTION>
151    if ((config_flags%real_data_init_type == 1) .OR. &
152        (config_flags%real_data_init_type == 3)) then
153       call da_med_initialdata_input( head_grid , config_flags,'fg' )
154    end if
156    !<DESCRIPTION>
157    ! Once the top-level domain has been allocated, configured, and
158    ! initialized, the model time integration is ready to proceed.  The start
159    ! and stop times for the domain are set to the start and stop time of the
160    ! model run, and then <a href=integrate.html>integrate</a> is called to
161    ! advance the domain forward through that specified time interval.  On
162    ! return, the simulation is completed.  A Mediation Layer-provided
163    ! subroutine, <a href=med_shutdown_io.html>med_shutdown_io</a> is called
164    ! to allow the the model to do any I/O specific cleanup and shutdown, and
165    ! then the WRFVAR Driver Layer routine <a
166    ! href=wrf_shutdown.html>wrf_shutdown</a> (quilt servers would be
167    ! directed to shut down here) is called to properly end the run,
168    ! including shutting down the communications (for example, most comm
169    ! layers would call mpi_finalize at this point if they're using MPI).
170    ! 
171    !</DESCRIPTION>
174    !  The forecast integration for the most coarse grid is now started.  The
175    !  integration is from the first step (1) to the last step of the simulation.
177    ! FIX?
178    call da_warning(__FILE__,__LINE__,(/"Fix me"/))
179    !   head_grid%start_subtime = head_grid%start_time
180    !   head_grid%stop_subtime = head_grid%stop_time
182    ! return success status
183    rc = ESMF_SUCCESS
185 end subroutine da_esmf_init